CN113535630A - 一种跨节点通信方法、装置、设备及可读存储介质 - Google Patents

一种跨节点通信方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN113535630A
CN113535630A CN202111071657.3A CN202111071657A CN113535630A CN 113535630 A CN113535630 A CN 113535630A CN 202111071657 A CN202111071657 A CN 202111071657A CN 113535630 A CN113535630 A CN 113535630A
Authority
CN
China
Prior art keywords
node
gpu
gpus
data
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111071657.3A
Other languages
English (en)
Inventor
赵旭东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN202111071657.3A priority Critical patent/CN113535630A/zh
Publication of CN113535630A publication Critical patent/CN113535630A/zh
Priority to PCT/CN2022/078257 priority patent/WO2023040197A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17306Intercommunication techniques
    • G06F15/17331Distributed shared memory [DSM], e.g. remote direct memory access [RDMA]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/1735Network adapters, e.g. SCI, Myrinet

Abstract

本申请公开了一种跨节点通信方法、装置、设备及可读存储介质,该方法包括:从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量相同的第二GPU;通过IB卡建立第一GPU与第二GPU间一一对应的通信链路;在通信链路中分别传输目标数据中的各个数据块;在第二节点中的每个GPU保存有目标数据的部分数据块后,对第二节点中的GPU进行数据收集处理,以使第二节点中的各个GPU都完整保存目标数据。由于,整个传输过程,在第一节点向第二节点进行数据传输时,仅需传递一份目标数据,且还采用并行传输,可以在节点配置的IB卡数量少于4个时,完成节点间高效的数据传输。

Description

一种跨节点通信方法、装置、设备及可读存储介质
技术领域
本申请涉及通信技术领域,特别是涉及一种跨节点通信方法、装置、设备及可读存储介质。
背景技术
在对大规模深度学习模型进行训练的时候,由于受到GPU(Graphics ProcessingUnit,图形处理器)显存容量的限制,通常需要采取多种分布式并行策略混合的方式,才能够在将模型放到多个GPU中进行训练。通常采用的并行策略包括了数据并行,张量模型并行和流水线并行。
在使用流水线并行过程中,节点间通信的效率和带宽对模型训练的速度影响至关重要。可以采用8*200Gb的IB(InfiniBand,网络适配器,本文简称IB卡)互联的方案来解决这一问题。但是,在实际当中,很多超算中心和互联网企业的计算集群并不具备这一网络通信的条件,即,现在大部分的超算中心都没有实现所有的计算节点都配置8个IB卡,并且只有少部分的计算节点会配置2~4个IB卡。在使用单个IB进行通信的时候,跨NUMA(NonUniform Memory Access,非一致内存访问)节点进行GPURDMA(一种GPU之间高效通信的应用程序接口)通信的效率会受到CPU和I/O Die的带宽影响。
综上所述,如何有效地解决跨NUMA节点进行GPURDMA通信的效率等问题,是目前本领域技术人员急需解决的技术问题。
发明内容
本申请的目的是提供一种跨节点通信方法、装置、设备及可读存储介质,能够有效提高跨NUMA节点进行GPURDMA通信的效率。
为解决上述技术问题,本申请提供如下技术方案:
一种跨节点通信方法,包括:
从第一节点中选出至少2个第一GPU,从第二节点中选出与所述第一GPU数量相同的第二GPU;其中,所述GPU为Graphics Processing Unit,图形处理器;
通过IB卡建立所述第一GPU与所述第二GPU间一一对应的通信链路;其中,所述IB为InfiniBand,网络适配器;
在所述通信链路中分别传输目标数据中的各个数据块;
在所述第二节点中的每个GPU保存有所述目标数据的部分数据块后,对所述第二节点中的GPU进行数据收集处理,以使所述第二节点中的各个GPU都完整保存所述目标数据。
优选地,所述从第一节点中选出至少2个第一GPU,从第二节点中选出与所述第一GPU数量相同的第二GPU,包括:
在所述第一节点需向所述第二节点传输所述目标数据的情况下,获取所述第一节点与所述第二节点间的IB卡挂载信息;
利用所述IB卡挂载信息,从所述第一节点中选出至少2个所述第一GPU,从所述第二节点中选出与所述第一GPU数量匹配的所述第二GPU。
优选地,利用所述IB卡挂载信息,从所述第一节点中选出至少2个所述第一GPU,从所述第二节点中选出与所述第一GPU数量匹配的所述第二GPU,包括:
利用所述IB卡挂载信息中的GPU挂载分布信息,从所述第一节点和所述第二节点中查找与所述IB卡挂载在同一个总线开关的目标CPU;
按照所述目标GPU所属节点,分别将所述目标GPU确定为所述第一GPU和所述第二GPU。
优选地,在所述通信链路中分别传输目标数据中的各个数据块,包括:
若所述通信链路的数量为2,则在每一条所述通信链路中传输数据量为所述目标数据一半的数据块。
优选地,在所述通信链路中分别传输目标数据中的各个数据块之后,还包括;
若所述通信链路的数量小于所述第二节点中GPU数量,则利用所述第二GPU,将所述数据块分散给所述第二节点的各个GPU。
优选地,利用所述第二GPU,将所述数据块分散给所述第二节点的各个GPU,包括:
利用所述第二GPU,划分自身接收到的所述数据块,并将划分后的数据块分散给所述第二节点的各个GPU。
优选地,在所述第二节点中的各个GPU都完整保存所述目标数据之后,还包括:
利用所述第二节点中的各个GPU和所述第二节点中的各个GPU,结合所述目标数据对模型并行训练。
一种跨节点通信装置,包括:
GPU选择模块,用于从第一节点中选出至少2个第一GPU,从第二节点中选出与所述第一GPU数量相同的第二GPU;其中,所述GPU为Graphics Processing Unit,图形处理器;
通信链路建立模块,用于通过IB卡建立所述第一GPU与所述第二GPU间一一对应的通信链路;其中,所述IB为InfiniBand,网络适配器;
数据并行传输模块,用于在所述通信链路中分别传输目标数据中的各个数据块;
数据收集模块,用于在所述第二节点中的每个GPU保存有所述目标数据的部分数据块后,对所述第二节点中的GPU进行数据收集处理,以使所述第二节点中的各个GPU都完整保存所述目标数据。
一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述跨节点通信方法的步骤。
一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述跨节点通信方法的步骤。
应用本申请实施例所提供的方法,从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量相同的第二GPU;通过IB卡建立第一GPU与第二GPU间一一对应的通信链路;在通信链路中分别传输目标数据中的各个数据块;在第二节点中的每个GPU保存有目标数据的部分数据块后,对第二节点中的GPU进行数据收集处理,以使第二节点中的各个GPU都完整保存目标数据。
首先,从第一节点中选出至少2个第一GPU,从第二节点中选出数量相同的第二GPU,然后通过IB卡建立第一GPU与第二GPU之间一一对应的通信链路。然后,在通信链路中分别传输目标数据中的各个数据块。即,每一条通信链路中并不传输完整的目标数据,则是仅传输目标数据的一个数据块,即第一节点与第二节点之间传递目标数据时,有至少2个第一GPU在发送数据,至少2个第二GPU在接收数据,第一节点与第二节点间的数据传输总量与目标数据对应,在传输时,由于有至少2个通信链路在参与传输,可以加快数据传输效率。此外,在第二节点中的各个GPU都保存有目标数据的一部分数据块之后,仅需对第二节点中的GPU进行数据收集处理,即可使得第二节点中的各个GPU都完整保持该目标数据,即实现了将第一节点中的目标数据传输至第二节点中的各个GPU。由于,整个传输过程,在第一节点向第二节点进行数据传输时,仅需传递一份目标数据,且还采用并行传输,可以在节点配置的IB卡数量少于4个时,完成节点间高效的数据传输。
相应地,本申请实施例还提供了与上述跨节点通信方法相对应的跨节点通信装置、设备和可读存储介质,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中一种跨节点通信方法的实施流程图;
图2为本申请实施例中一种跨NUMA节点的IB网卡与GPU的拓扑关系示意图;
图3为本申请实施例中一种节点内部数据块扩散示意图;
图4为本申请实施例中一种跨NUMA节点的数据传输示意图;
图5为本申请实施例中另一种跨NUMA节点的数据传输示意图;
图6为本申请实施例中一种跨节点通信装置的结构示意图;
图7为本申请实施例中一种电子设备的结构示意图;
图8为本申请实施例中一种电子设备的具体结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面结合附图和具体实施方式对本申请作进一步的详细说明。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参考图1,图1为本申请实施例中一种跨节点通信方法的流程图,该方法包括以下步骤:
S101、从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量相同的第二GPU。
其中,第一节点与第二节点即为NUMA对应的不同计算节点,在一个计算节点中有多个GPU,如8个。
为了在计算节点配置的IB卡数量有限的情况下,提高跨NUMA节点间的数据通信,首先从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量相同的第二GPU。
需要注意的是,在本申请中,第一、第二仅用于区别存在两个相同的对象,而同具有第一或第二的不同对象之间,具有所属关系。即,第一节点和第二节点仅仅是用于区别存在2个相同的计算节点,而第一GPU表明其属于第一节点,第二GPU表明其属于第二节点。
在一种具体实施方式中,步骤S101从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量相同的第二GPU,具体包括:
步骤一、在第一节点需向第二节点传输目标数据的情况下,获取第一节点与第二节点间的IB卡挂载信息;
步骤二、利用IB卡挂载信息,从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量匹配的第二GPU。
为便于描述,下面将上述两个步骤结合起来进行说明。
具体的,可以在第一节点产生需要向第二节点同步的目标数据时,确定第一节点需向第二节点传输目标数据。该目标数据可以是在模型训练过程中所需数据,也可以为其他数据。
在明确第一节点需向第二节点传输目标数据的情况下,可以直接获取第一节点与第二节点间的IB卡挂载信息。IB卡挂载信息即指在第一节点与第二节点之间通过IB卡进行通信的挂载信息。具体的,可以基于IB卡挂载信息找出与IB卡具有通信连接的GPU作为第一GPU或第二GPU。
进一步,上述步骤二利用IB卡挂载信息,从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量匹配的第二GPU,具体包括:
步骤1、利用IB卡挂载信息中的GPU挂载分布信息,从第一节点和第二节点中查找与IB卡挂载在同一个总线开关的目标CPU;
步骤2、按照目标GPU所属节点,分别将目标GPU确定为第一GPU和第二GPU。
以总线开关为PCIE-SWITCH(peripheral component interconnect express,PCIE,一种高速串行计算机扩展总线标准,SWITCH开关)为例,即只有与IB卡挂载在同一个PCIE-SWITCH下的GPU参与节点间的流水线数据通信,即通信的数据量可在GPU间被平分。
对于目标GPU节点,从而确定其属于第一GPU或第二GPU。举例说明:如图2所示,第一节点与第二节点之间存在一个IB卡,且第一节点中GPU11和GPU12与该IB相连接,第二节点中GPU21和GPU22与该IB卡相连接,因而相应地可以将GPU11和GPU12确定为第一GPU,将GPU21和GPU22确定为第二GPU。
S102、通过IB卡建立第一GPU与第二GPU间一一对应的通信链路。
一个第一GPU与一个第二GPU通过配置的IB卡,建立起一一对应的通信链路。对于不同节点内的GPU具体如何通过IB卡建立起一一对应的通信链路,可以具体参照IB卡具体定义和通信实现方案,在此不再一一赘述。
举例说明:请参考图2,图2为本申请实施例中一种跨NUMA节点的IB网卡与GPU的拓扑关系示意图。其中,图左侧一列GPU对应属于第一节点,右侧一列GPU对应属于第二节点。其中,GPU11和GPU12即为第一GPU,GPU21和GPU22即为第二GPU。GPU11通过IB卡与GPU21建立通信链路,GPU12通过IB卡与GPU22建立通信链路。
S103、在通信链路中分别传输目标数据中的各个数据块。
在本实施例中,在将第一节点中GPU内存储的目标数据传递给第二节点中的每一个GPU的过程中,为了提高跨节点间的数据传输效率,可以仅从第一节点发送一份目标数据至第二节点。
具体的传输实现,即利用步骤S102建立好的通信链路,在跨节点的GPU间进行P2P的数据传输。由于第一节点中参与目标数据传输的第一GPU至少有2个,因而在进行数据传输时,可以让每一条通信链路仅传输目标数据中的一个数据块。
在本申请中一种具体实施方式中,步骤S103在通信链路中分别传输目标数据中的各个数据块,包括:若通信链路的数量为2,则在每一条通信链路中传输数据量为目标数据一半的数据块。举例说明,如图2所示,若目标数据的通信数据量为D,则GPU11通过IB卡与GPU21建立的通信链路仅需传输1/2D,GPU12通过IB卡与GPU22建立的通信链路仅需传递另外的1/2D。如此,第二节点中的GPU21和GPU22所接收的数据总量即为D,即目标数据被分散传递给了GPU21和GPU22。
当然,在实际应用中,第一节点与第二节点之间的IB卡可以有2个、3个或4个等。在图2中,IB卡的数量为1,通信链路为2,在使用1个以上的IB卡进行节点间通信的实施,通信方式、数据操作的流程与使用一个IB卡的类似。例如,当第一节点与第二节点的GPU都为8个时,如图4所示,在图4中有2个IB卡,若需传输的目标数据的数据量为D,在第一节点中参与跨节点数据传输的GPU有4个,在第二节点中参与跨节点数据传输的GPU也有4个,因而在跨节点传输时,一条通信链路可仅传输1/4D的目标数据即可;如图5所示,在图5中有4个IB卡,若需传输的目标数据的数据量为D,在第一节点中参与跨节点数据传输的GPU有8个,在第二节点中参与跨节点数据传输的GPU也有8个,因而在跨节点传输时,一条通信链路可仅传输1/8D的目标数据即可。
S104、在第二节点中的每个GPU保存有目标数据的部分数据块后,对第二节点中的GPU进行数据收集处理,以使第二节点中的各个GPU都完整保存目标数据。
执行完步骤S103后,仅仅是将一份目标数据传递给第二节点,但是,第二节点中的各个GPU还未保存完整的目标数据。因此,可以在第二节点中的每个GPU都保存有目标数据的部分数据块之后,对第二节点中的GPU进行数据收集处理,从而使得第二节点中的各个GPU都保存完整的目标数据。
需要注意的是,如图5所示,若第一节点中的GPU和第二节点中的GPU都参与了目标数据的传输,则在传输完一份目标数据后,第二节点中的每个GPU都保存了目标数据的部分数据块,此时可以直接对第二节点中的GPU进行数据收集处理;如图2和图4所示,若第一节点中的GPU和第二节点中的GPU有部分GPU没有参数目标数据的传输,则在传输完一份目标数据后,第二节点中的部分GPU还可能没有保存与目标数据相关的任何数据,此时可以令第二节点中接收到目标数据的数据块的第二GPU对其所接收的数据块进行共享或扩散,从而使得第二节点中的GPU都保存了目标数据的部分数据块。
在一种具体实施方式中,在执行完步骤S103在通信链路中分别传输目标数据中的各个数据块之后,若通信链路的数量小于第二节点中GPU数量,则利用第二GPU,将数据块分散给第二节点的各个GPU。
举例说明,如图3所示,在第二节点中共有8个GPU,其中仅有GPU21和GPU22在与第一节点的数据传输中,得到了目标数据的部分数据块,具体的GPU21中存储了数据量为目标数据一半的数据块,GPU22中存储了数据量为目标数据另一半的数据块,此时可以使得GPU21和GPU22将其接收到的数据块分散至其他GPU中。
具体的,可以利用第二GPU,划分自身接收到的数据块,并将划分后的数据块分散给第二节点的各个GPU。举例说明:如图3所示的第二节点内部数据分散示意图,GPU21将其接收的数据块分为四份,将分散到GPU21、GPU23、GPU25和GPU7中,GPU22将其接收的数据块分为四份,将分散到GPU22、GPU24、GPU26和GPU28中。如此,第二节点中的每一个GPU都至少存储有1/8的目标数据。
对于如何将分散到第二节点中各个GPU的数据块进行收集(all-gather),从而使得第二节点的各个GPU都保存完成的目标数据,可以具体参照相关数据收集操作,在此不再一一说明。
在本申请的一种具体实施方式中,执行步骤S104在第二节点中的各个GPU都完整保存目标数据之后,还可以利用第二节点中的各个GPU和第二节点中的各个GPU,结合目标数据对模型并行训练。具体的,对于具体如何跨节点训练模型,可以具体参考模型并行训练方案,在此不再一一赘述。如此,便可解决在每个计算节点配置的IB卡数量少于4个时,进行巨量模型训练采用流水并行的通信受到跨NUMA通行导致的效率降低问题。
应用本申请实施例所提供的方法,从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量相同的第二GPU;通过IB卡建立第一GPU与第二GPU间一一对应的通信链路;在通信链路中分别传输目标数据中的各个数据块;在第二节点中的每个GPU保存有目标数据的部分数据块后,对第二节点中的GPU进行数据收集处理,以使第二节点中的各个GPU都完整保存目标数据。
首先,从第一节点中选出至少2个第一GPU,从第二节点中选出数量相同的第二GPU,然后通过IB卡建立第一GPU与第二GPU之间一一对应的通信链路。然后,在通信链路中分别传输目标数据中的各个数据块。即,每一条通信链路中并不传输完整的目标数据,则是仅传输目标数据的一个数据块,即第一节点与第二节点之间传递目标数据时,有至少2个第一GPU在发送数据,至少2个第二GPU在接收数据,第一节点与第二节点间的数据传输总量与目标数据对应,在传输时,由于有至少2个通信链路在参与传输,可以加快数据传输效率。此外,在第二节点中的各个GPU都保存有目标数据的一部分数据块之后,仅需对第二节点中的GPU进行数据收集处理,即可使得第二节点中的各个GPU都完整保持该目标数据,即实现了将第一节点中的目标数据传输至第二节点中的各个GPU。由于,整个传输过程,在第一节点向第二节点进行数据传输时,仅需传递一份目标数据,且还采用并行传输,可以在节点配置的IB卡数量少于4个时,完成节点间高效的数据传输。
相应于上面的方法实施例,本申请实施例还提供了一种跨节点通信装置,下文描述的跨节点通信装置与上文描述的跨节点通信方法可相互对应参照。
参见图6所示,该装置包括以下模块:
GPU选择模块101,用于从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量相同的第二GPU;
通信链路建立模块102,用于通过IB卡建立第一GPU与第二GPU间一一对应的通信链路;
数据并行传输模块103,用于在通信链路中分别传输目标数据中的各个数据块;
数据收集模块104,用于在第二节点中的每个GPU保存有目标数据的部分数据块后,对第二节点中的GPU进行数据收集处理,以使第二节点中的各个GPU都完整保存目标数据。
应用本申请实施例所提供的装置,从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量相同的第二GPU;通过IB卡建立第一GPU与第二GPU间一一对应的通信链路;在通信链路中分别传输目标数据中的各个数据块;在第二节点中的每个GPU保存有目标数据的部分数据块后,对第二节点中的GPU进行数据收集处理,以使第二节点中的各个GPU都完整保存目标数据。
首先,从第一节点中选出至少2个第一GPU,从第二节点中选出数量相同的第二GPU,然后通过IB卡建立第一GPU与第二GPU之间一一对应的通信链路。然后,在通信链路中分别传输目标数据中的各个数据块。即,每一条通信链路中并不传输完整的目标数据,则是仅传输目标数据的一个数据块,即第一节点与第二节点之间传递目标数据时,有至少2个第一GPU在发送数据,至少2个第二GPU在接收数据,第一节点与第二节点间的数据传输总量与目标数据对应,在传输时,由于有至少2个通信链路在参与传输,可以加快数据传输效率。此外,在第二节点中的各个GPU都保存有目标数据的一部分数据块之后,仅需对第二节点中的GPU进行数据收集处理,即可使得第二节点中的各个GPU都完整保持该目标数据,即实现了将第一节点中的目标数据传输至第二节点中的各个GPU。由于,整个传输过程,在第一节点向第二节点进行数据传输时,仅需传递一份目标数据,且还采用并行传输,可以在节点配置的IB卡数量少于4个时,完成节点间高效的数据传输。
在本申请的一种具体实施方式中,GPU选择模块101,具体用于在第一节点需向第二节点传输目标数据的情况下,获取第一节点与第二节点间的IB卡挂载信息;利用IB卡挂载信息,从第一节点中选出至少2个第一GPU,从第二节点中选出与第一GPU数量匹配的第二GPU。
在本申请的一种具体实施方式中,GPU选择模块101,具体用于利用IB卡挂载信息中的GPU挂载分布信息,从第一节点和第二节点中查找与IB卡挂载在同一个总线开关的目标CPU;按照目标GPU所属节点,分别将目标GPU确定为第一GPU和第二GPU。
在本申请的一种具体实施方式中,数据并行传输模块103,具体用于若通信链路的数量为2,则在每一条通信链路中传输数据量为目标数据一半的数据块。
在本申请的一种具体实施方式中,还包括:
数据块扩散模块,用于在通信链路中分别传输目标数据中的各个数据块之后,若通信链路的数量小于第二节点中GPU数量,则利用第二GPU,将数据块分散给第二节点的各个GPU。
在本申请的一种具体实施方式中,数据块扩散模块,具体用于利用第二GPU,划分自身接收到的数据块,并将划分后的数据块分散给第二节点的各个GPU。
在本申请的一种具体实施方式中,还包括:
模型训练模块,用于在第二节点中的各个GPU都完整保存目标数据之后,利用第二节点中的各个GPU和第二节点中的各个GPU,结合目标数据对模型并行训练。
相应于上面的方法实施例,本申请实施例还提供了一种电子设备,下文描述的一种电子设备与上文描述的一种跨节点通信方法可相互对应参照。
参见图7所示,该电子设备包括:
存储器332,用于存储计算机程序;
处理器322,用于执行计算机程序时实现上述方法实施例的跨节点通信方法的步骤。
具体的,请参考图8,图8为本实施例提供的一种电子设备的具体结构示意图,该电子设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)322(例如,一个或一个以上处理器)和存储器332,存储器332存储有一个或一个以上的计算机应用程序342或数据344。其中,存储器332可以是短暂存储或持久存储。存储在存储器332的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对数据处理设备中的一系列指令操作。更进一步地,中央处理器322可以设置为与存储器332通信,在电子设备301上执行存储器332中的一系列指令操作。
电子设备301还可以包括一个或一个以上电源326,一个或一个以上有线或无线网络接口350,一个或一个以上输入输出接口358,和/或,一个或一个以上操作系统341。
上文所描述的跨节点通信方法中的步骤可以由电子设备的结构实现。
相应于上面的方法实施例,本申请实施例还提供了一种可读存储介质,下文描述的一种可读存储介质与上文描述的一种跨节点通信方法可相互对应参照。
一种可读存储介质,可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例的跨节点通信方法的步骤。
该可读存储介质具体可以为U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可存储程序代码的可读存储介质。
本领域技术人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

Claims (10)

1.一种跨节点通信方法,其特征在于,包括:
从第一节点中选出至少2个第一GPU,从第二节点中选出与所述第一GPU数量相同的第二GPU;其中,所述GPU为Graphics Processing Unit,图形处理器;
通过IB卡建立所述第一GPU与所述第二GPU间一一对应的通信链路;其中,所述IB为InfiniBand,网络适配器;
在所述通信链路中分别传输目标数据中的各个数据块;
在所述第二节点中的每个GPU保存有所述目标数据的部分数据块后,对所述第二节点中的GPU进行数据收集处理,以使所述第二节点中的各个GPU都完整保存所述目标数据。
2.根据权利要求1所述的跨节点通信方法,其特征在于,所述从第一节点中选出至少2个第一GPU,从第二节点中选出与所述第一GPU数量相同的第二GPU,包括:
在所述第一节点需向所述第二节点传输所述目标数据的情况下,获取所述第一节点与所述第二节点间的IB卡挂载信息;
利用所述IB卡挂载信息,从所述第一节点中选出至少2个所述第一GPU,从所述第二节点中选出与所述第一GPU数量匹配的所述第二GPU。
3.根据权利要求2所述的跨节点通信方法,其特征在于,利用所述IB卡挂载信息,从所述第一节点中选出至少2个所述第一GPU,从所述第二节点中选出与所述第一GPU数量匹配的所述第二GPU,包括:
利用所述IB卡挂载信息中的GPU挂载分布信息,从所述第一节点和所述第二节点中查找与所述IB卡挂载在同一个总线开关的目标CPU;
按照所述目标GPU所属节点,分别将所述目标GPU确定为所述第一GPU和所述第二GPU。
4.根据权利要求1所述的跨节点通信方法,其特征在于,在所述通信链路中分别传输目标数据中的各个数据块,包括:
若所述通信链路的数量为2,则在每一条所述通信链路中传输数据量为所述目标数据一半的数据块。
5.根据权利要求1所述的跨节点通信方法,其特征在于,在所述通信链路中分别传输目标数据中的各个数据块之后,还包括;
若所述通信链路的数量小于所述第二节点中GPU数量,则利用所述第二GPU,将所述数据块分散给所述第二节点的各个GPU。
6.根据权利要求5所述的跨节点通信方法,其特征在于,利用所述第二GPU,将所述数据块分散给所述第二节点的各个GPU,包括:
利用所述第二GPU,划分自身接收到的所述数据块,并将划分后的数据块分散给所述第二节点的各个GPU。
7.根据权利要求1至6任一项所述的跨节点通信方法,其特征在于,在所述第二节点中的各个GPU都完整保存所述目标数据之后,还包括:
利用所述第二节点中的各个GPU和所述第二节点中的各个GPU,结合所述目标数据对模型并行训练。
8.一种跨节点通信装置,其特征在于,包括:
GPU选择模块,用于从第一节点中选出至少2个第一GPU,从第二节点中选出与所述第一GPU数量相同的第二GPU;其中,所述GPU为Graphics Processing Unit,图形处理器;
通信链路建立模块,用于通过IB卡建立所述第一GPU与所述第二GPU间一一对应的通信链路;其中,所述IB为InfiniBand,网络适配器;
数据并行传输模块,用于在所述通信链路中分别传输目标数据中的各个数据块;
数据收集模块,用于在所述第二节点中的每个GPU保存有所述目标数据的部分数据块后,对所述第二节点中的GPU进行数据收集处理,以使所述第二节点中的各个GPU都完整保存所述目标数据。
9.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述跨节点通信方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述跨节点通信方法的步骤。
CN202111071657.3A 2021-09-14 2021-09-14 一种跨节点通信方法、装置、设备及可读存储介质 Pending CN113535630A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111071657.3A CN113535630A (zh) 2021-09-14 2021-09-14 一种跨节点通信方法、装置、设备及可读存储介质
PCT/CN2022/078257 WO2023040197A1 (zh) 2021-09-14 2022-02-28 一种跨节点通信方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111071657.3A CN113535630A (zh) 2021-09-14 2021-09-14 一种跨节点通信方法、装置、设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN113535630A true CN113535630A (zh) 2021-10-22

Family

ID=78092478

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111071657.3A Pending CN113535630A (zh) 2021-09-14 2021-09-14 一种跨节点通信方法、装置、设备及可读存储介质

Country Status (2)

Country Link
CN (1) CN113535630A (zh)
WO (1) WO2023040197A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114866534A (zh) * 2022-04-29 2022-08-05 浪潮电子信息产业股份有限公司 一种图像处理方法、装置、设备及介质
CN115037747A (zh) * 2022-05-31 2022-09-09 北京百度网讯科技有限公司 数据通信方法及装置、分布式系统、设备和介质
WO2023040197A1 (zh) * 2021-09-14 2023-03-23 苏州浪潮智能科技有限公司 一种跨节点通信方法、装置、设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541804A (zh) * 2011-12-26 2012-07-04 中国人民解放军信息工程大学 一种异构系统中多gpu互连体系结构
CN105183692A (zh) * 2015-09-22 2015-12-23 浪潮(北京)电子信息产业有限公司 一种集群系统设备间数据通信方法与系统
US20170214580A1 (en) * 2016-01-27 2017-07-27 Oracle International Corporation System and method for providing an infiniband network device having a vendor-specific attribute that contains a signature of the vendor in a high-performance computing environment
CN107111513A (zh) * 2015-03-06 2017-08-29 甲骨文国际公司 为高性能云计算环境提供InfiniBand SR‑IOV vSWITCH体系架构的系统和方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009032A (zh) * 2017-12-14 2018-05-08 郑州云海信息技术有限公司 一种Infiniband网络通信方法、节点、设备及存储介质
CN111277616B (zh) * 2018-12-04 2023-11-03 中兴通讯股份有限公司 一种基于rdma的数据传输方法和分布式共享内存系统
GB201904263D0 (en) * 2019-03-27 2019-05-08 Graphcore Ltd A networked computer
CN111294664A (zh) * 2019-05-28 2020-06-16 杭州萤石软件有限公司 音视频传输数据方法、电子设备及存储介质
CN110908799A (zh) * 2019-11-08 2020-03-24 浪潮电子信息产业股份有限公司 一种分布式训练中的通信方法、装置、设备、介质
CN111858454B (zh) * 2020-06-29 2022-11-22 苏州浪潮智能科技有限公司 一种gpu通信方法、设备以及介质
CN113535630A (zh) * 2021-09-14 2021-10-22 苏州浪潮智能科技有限公司 一种跨节点通信方法、装置、设备及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541804A (zh) * 2011-12-26 2012-07-04 中国人民解放军信息工程大学 一种异构系统中多gpu互连体系结构
CN107111513A (zh) * 2015-03-06 2017-08-29 甲骨文国际公司 为高性能云计算环境提供InfiniBand SR‑IOV vSWITCH体系架构的系统和方法
CN105183692A (zh) * 2015-09-22 2015-12-23 浪潮(北京)电子信息产业有限公司 一种集群系统设备间数据通信方法与系统
US20170214580A1 (en) * 2016-01-27 2017-07-27 Oracle International Corporation System and method for providing an infiniband network device having a vendor-specific attribute that contains a signature of the vendor in a high-performance computing environment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023040197A1 (zh) * 2021-09-14 2023-03-23 苏州浪潮智能科技有限公司 一种跨节点通信方法、装置、设备及可读存储介质
CN114866534A (zh) * 2022-04-29 2022-08-05 浪潮电子信息产业股份有限公司 一种图像处理方法、装置、设备及介质
CN114866534B (zh) * 2022-04-29 2024-03-15 浪潮电子信息产业股份有限公司 一种图像处理方法、装置、设备及介质
CN115037747A (zh) * 2022-05-31 2022-09-09 北京百度网讯科技有限公司 数据通信方法及装置、分布式系统、设备和介质

Also Published As

Publication number Publication date
WO2023040197A1 (zh) 2023-03-23

Similar Documents

Publication Publication Date Title
CN113535630A (zh) 一种跨节点通信方法、装置、设备及可读存储介质
CN110134636B (zh) 模型训练方法、服务器和计算机可读存储介质
Krause et al. JURECA: general-purpose supercomputer at Jülich supercomputing centre
CN100449497C (zh) 并行计算机和定位并行计算机中硬件故障的方法
CN100524284C (zh) 并行计算机的归约处理方法和并行计算机
CN101652750B (zh) 数据处理装置、分散处理系统、数据处理方法
US20080104609A1 (en) System and method for load balancing distributed simulations in virtual environments
CN114281521B (zh) 优化深度学习异构资源通信效率方法、系统、设备及介质
Song et al. Gaia scheduler: A kubernetes-based scheduler framework
CN106168993B (zh) 电网实时仿真分析系统
CN113298222A (zh) 一种基于神经网络的参数更新方法、分布式训练平台系统
CN106059940A (zh) 一种流量控制方法及装置
CN114391137A (zh) 用于多核处理系统中的域分解感知处理器分配的系统、方法和计算机可存取介质
CN106776014A (zh) 异构计算中的并行加速方法及系统
CN103701587B (zh) 一种多接口密码模块并行调度方法
CN117149665A (zh) 持续集成方法、控制设备、持续集成系统及存储介质
CN106657350A (zh) 数据复制方法及装置
CN106447755A (zh) 一种动画渲染系统
CN113900793B (zh) 一种服务器集群及其深度学习的集合通信系统和方法
CN115775199A (zh) 数据处理方法和装置、电子设备和计算机可读存储介质
CN113254385A (zh) 一种网络结构、并行推理模型的编译加载方法及芯片系统
CN107807608A (zh) 数据处理方法、数据处理系统及存储介质
Golubeva et al. A tool for simulating parallel branch-and-bound methods
CN113076191A (zh) 一种集群gpu资源调度系统
CN111782565A (zh) Gpu服务器和数据传输方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20211022