CN110519090B - 一种fpga云平台的加速卡分配方法、系统及相关组件 - Google Patents
一种fpga云平台的加速卡分配方法、系统及相关组件 Download PDFInfo
- Publication number
- CN110519090B CN110519090B CN201910785360.XA CN201910785360A CN110519090B CN 110519090 B CN110519090 B CN 110519090B CN 201910785360 A CN201910785360 A CN 201910785360A CN 110519090 B CN110519090 B CN 110519090B
- Authority
- CN
- China
- Prior art keywords
- accelerator
- target
- accelerator card
- card
- cards
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000005540 biological transmission Effects 0.000 claims abstract description 79
- 238000012423 maintenance Methods 0.000 claims description 60
- 230000000875 corresponding effect Effects 0.000 claims description 35
- 230000001133 acceleration Effects 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 9
- 230000002596 correlated effect Effects 0.000 claims description 8
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000004422 calculation algorithm Methods 0.000 description 16
- 101100129590 Schizosaccharomyces pombe (strain 972 / ATCC 24843) mcp5 gene Proteins 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000013468 resource allocation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/12—Discovery or management of network topologies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本申请公开了一种FPGA云平台的加速卡分配方法,所述方法包括确定FPGA云平台对应的加速卡和路由器,并构建加速卡和路由器的多叉树模型;查询多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;当接收到目标终端的资源请求信息时,根据资源请求信息确定目标加速卡数量和目标数据传输速率;通过遍历多叉树模型确定目标父节点,并将目标父节点下的加速卡分配给目标终端。本申请能够在保证数据传输速率的前提下,提高分配FPGA加速卡的效率。本申请还公开了一种FPGA云平台的加速卡分配系统、一种存储介质及一种电子设备,具有以上有益效果。
Description
技术领域
本申请涉及云计算技术领域,特别涉及一种FPGA云平台的加速卡分配方法、系统、一种存储介质及一种电子设备。
背景技术
随着FPGA的发展,CPU逐渐将一些计算量大和复杂的工作分流到FPGA,实现FPGA和CPU协同工作。而FPGA云平台作为一种以FPGA为协处理器的异构计算平台,充分利用FPGA的并行和流水等设计手段,能够提高计算性能、能效比和计算实时性,实现对应用的硬件加速处理;另一方面,它可以通过云服务方式为用户提供高附加值的服务,提升了客户的业务整合和处理速度。
当前的FPGA云服务商采用的是单机单卡和单机多卡的绑定模式,这种方式导致不同的FPGA芯片之间整合难度加大,对服务器加速卡要求过高。而基于FPGA加速卡网口的网络通信功能,FPGA云平台的不同加速卡可以实现不同加速卡之间的数据传输和处理,从而提升了FPGA云平台的处理效率,实现了FPGA云平台中加速卡和服务器之间的解耦。但是,在FPGA加速卡计算效率已知的情况下,FPGA云平台的处理效率受限于板卡数据的传输速率。
因此,如何在保证数据传输速率的前提下,提高分配FPGA加速卡的效率是本领域技术人员目前需要解决的技术问题。
发明内容
本申请的目的是提供一种FPGA云平台的加速卡分配方法、系统、一种存储介质及一种电子设备,能够在保证数据传输速率的前提下,提高分配FPGA加速卡的效率。
为解决上述技术问题,本申请提供一种FPGA云平台的加速卡分配方法,该加速卡分配方法包括:
确定FPGA云平台对应的加速卡和路由器,并构建所述加速卡和所述路由器的多叉树模型;
查询所述多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;
当接收到目标终端的资源请求信息时,根据所述资源请求信息确定目标加速卡数量和目标数据传输速率;
通过遍历所述多叉树模型确定目标父节点,并将所述目标父节点下的加速卡分配给所述目标终端;其中,所述目标父节点下的加速卡最小数据传输速率大于或等于所述目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量。
可选的,构建所述加速卡和所述路由器的多叉树模型包括:
根据所述路由器和所述加速卡在树型网络拓扑中的物理位置执行IP编址操作,并通过无类别域间路由的方式对所述路由器和所述加速卡进行子网划分操作,得到多叉树模型。
可选的,当所述目标父节点的数量为1时,将所述目标父节点下的加速卡分配给所述目标终端包括:
根据加速卡维护成本确定所述目标父节点下的加速卡的优先级;其中,所述加速卡维护成本与所述优先级负相关;
将优先级前N位的加速卡设置为目标加速卡;其中,N为所述目标加速卡数量;
将所述目标加速卡分配给所述目标终端。
可选的,当所述目标父节点的数量大于1时,将所述目标父节点下的加速卡分配给所述目标终端包括:
将每一所述目标父节点下的所有加速卡设置为加速卡集合;
根据加速卡维护成本确定所述加速卡集合中的加速卡的优先级;其中,所述加速卡维护成本与所述优先级负相关;
将每一所述加速卡集合中优先级前N位的加速卡设置为待选加速卡组;其中,N为所述目标加速卡数量;
将加速卡组维护成本最低的待选加速卡组设置为目标加速卡组;
将所述目标加速卡组对应的加速卡分配给所述目标终端。
可选的,还包括:
根据加速卡的持续工作时长计算所述加速卡维护成本;其中,所述持续工作时长与所述加速卡维护成本正相关。
可选的,还包括:
将所述待选加速卡组中所有加速卡的加速卡维护成本的和作为所述加速卡组维护成本。
可选的,在将所述目标父节点下的加速卡分配给所述目标终端之后,还包括:
将分配给所述目标终端的加速卡标记为已分配加速卡;
根据所述已分配加速卡的数量和数据传输速率更新所述多叉树模型。
本申请还提供了一种FPGA云平台的加速卡分配系统,该加速卡分配系统包括:
多叉树模型构建模块,用于确定FPGA云平台对应的加速卡和路由器,并构建所述加速卡和所述路由器的多叉树模型;
查询模块,用于查询所述多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;
目标信息确定模块,用于当接收到目标终端的资源请求信息时,根据所述资源请求信息确定目标加速卡数量和目标数据传输速率;
分配模块,用于通过遍历所述多叉树模型确定目标父节点,并将所述目标父节点下的加速卡分配给所述目标终端;其中,所述目标父节点下的加速卡最小数据传输速率大于或等于所述目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量。
本申请还提供了一种存储介质,其上存储有计算机程序,所述计算机程序执行时实现上述FPGA云平台的加速卡分配方法执行的步骤。
本申请还提供了一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现上述FPGA云平台的加速卡分配方法执行的步骤。
本申请提供了一种FPGA云平台的加速卡分配方法,包括:确定FPGA云平台对应的加速卡和路由器,并构建所述加速卡和所述路由器的多叉树模型;查询所述多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;当接收到目标终端的资源请求信息时,根据所述资源请求信息确定目标加速卡数量和目标数据传输速率;通过遍历所述多叉树模型确定目标父节点,并将所述目标父节点下的加速卡分配给所述目标终端;其中,所述目标父节点下的加速卡最小数据传输速率大于或等于所述目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量。
本申请首先根据FPGA云平台对应的加速卡和路由器构建多叉树模型,并统计每一父节点下的加速卡最小数据传输速率和加速卡数量。当接收到资源请求信息时,根据支援请求信息查询多叉树模型中符合该资源请求信息的目标父节点,并将目标父节点所包括的加速卡分配给目标终端。由于目标父节点的加速卡最小传输速率大于或等于目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量,因此目标父节点能够符合用户需求,能够在保证数据传输速率的前提下提高分配FPGA加速卡的效率。本申请同时还提供了一种FPGA云平台的加速卡分配系统、一种存储介质和一种电子设备,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例,下面将对实施例中所需要使用的附图做简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例所提供的一种FPGA云平台的加速卡分配方法的流程图;
图2为本申请实施例所提供的另一种FPGA云平台的加速卡分配方法的流程图;
图3为FPGA云平台网络拓扑结构示意图;
图4为FPGA云平台的多叉树结构示意图;
图5为本申请实施例所提供的一种FPGA云平台的加速卡分配系统的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面请参见图1,图1为本申请实施例所提供的一种FPGA云平台的加速卡分配方法的流程图。
具体步骤可以包括:
S101:确定FPGA云平台对应的加速卡和路由器,并构建所述加速卡和所述路由器的多叉树模型;
其中,FPGA(Field-Programmable Gate Array)即现场可编程门阵列,FPGA云平台作为一种以FPGA为协处理器的异构计算平台,充分利用FPGA的并行和流水等设计手段,能够提高计算性能、能效比和计算实时性,实现对应用的硬件加速处理;另一方面,FPGA云平台可以为云服务方式为用户提供高附加值的服务,提升了客户的业务整合和处理速度。FPGA云平台可以对应多个加速卡和路由器,此处提的到加速卡具体指FPGA加速卡。在确定FPGA云平台对应的加速卡和路由器的基础上,本实施例可以构建关于加速卡与路由器的基于树型网络拓扑的多叉树模型。
作为一种可行的实施方式,本实施例可以根据所述路由器和所述加速卡在树型网络拓扑中的物理位置执行IP编址操作,并通过无类别域间路由的方式对所述路由器和所述加速卡进行子网划分操作,得到多叉树模型。多叉树模型的每一父节点可以为加速卡或路由器,当路由器作为父节点时,该父节点下可以包括任意数量个路由器或加速卡。
S102:查询所述多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;
其中,本步骤的目的在于确定多叉树模型上每一父节点下的加速卡最下的加速卡最小数据传输速率和加速卡数量,同一父节点下可以包括任意数量张加速卡,每一张加速卡的数据传输速率可以不相同。此处提到的加速卡最小数据传输速率指该父节点下所有加速卡中数据传输速率最小的加速卡的数据传输速率,此处提到的加速卡数量为父节点下的所有加速卡的数量。举例说明上述操作,例如节点A为节点B和节点C的父节点,节点B为节点D和节点E的父节点,节点A和节点B为路由器,节点C为数据传输速率为6M/s的加速卡,节点D为数据传输速率为3M/s的加速卡,节点E为数据传输速率为9M/s的加速卡,节点A对应的加速卡最小数据传输速率为3M/s、加速卡数量为3;节点B对应的加速卡最小数据传输速率为6M/s、加速卡数量为2;节点C对应的加速卡最小数据传输速率为3M/s、加速卡数量为1。
S103:当接收到目标终端的资源请求信息时,根据所述资源请求信息确定目标加速卡数量和目标数据传输速率;
其中,目标终端的资源请求信息为目标终端关于请求FPGA云平台分配加速卡的请求信息,可以通过解析资源请求信息确定目标终端需要的加速卡数量和加速卡传输速率,即目标加速卡数量和目标数据传输速率。需要说明的是,此处提到的目标数据传输速率指每一张加速卡的数据传输速率。
S104:通过遍历所述多叉树模型确定目标父节点,并将所述目标父节点下的加速卡分配给所述目标终端;
其中,本实施例建立在已经确定目标加速卡数量和目标数据传输速率的基础上,通过历遍多叉树模型确定符合要求的目标父节点,该目标父节点下的加速卡最小数据传输速率大于或等于所述目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量。在确定目标父节点的基础上,本实施例可以将目标父节点下的加速卡分配给目标终端。作为一种可行的实施方式,目标父节点下的加速卡数量可以大于目标加速卡数量,因此可以将目标父节点下目标加速卡数量张的加速卡分配给目标终端。
本实施例首先根据FPGA云平台对应的加速卡和路由器构建多叉树模型,并统计每一父节点下的加速卡最小数据传输速率和加速卡数量。当接收到资源请求信息时,根据支援请求信息查询多叉树模型中符合该资源请求信息的目标父节点,并将目标父节点所包括的加速卡分配给目标终端。由于目标父节点的加速卡最小传输速率大于或等于目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量,因此目标父节点能够符合用户需求,能够在保证数据传输速率的前提下提高分配FPGA加速卡的效率。
下面请参见图2,图2为本申请实施例所提供的另一种FPGA云平台的加速卡分配方法的流程图。
S201:确定FPGA云平台对应的加速卡和路由器;
S202:根据所述路由器和所述加速卡在树型网络拓扑中的物理位置执行IP编址操作,并通过无类别域间路由的方式对所述路由器和所述加速卡进行子网划分操作,得到多叉树模型。
S203:查询所述多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;
举例说明S202的相关操作,假设树型网络拓扑中共有i个直接连接加速卡的路由器,由于每个路由器的连接数量和划分可划分的子网网段有限,因此,i个路由器又挂载在j个路由器下。依次类推,假设最终的根节点为1个主路由器(IP地址标记为a.b.c.d/num,其中a,b,c,d均为大于0小于256的正整数,1<num<32)。依照CIDR子网划分技术,这个主路由器的IP网段是确定的,并且主路由器下的所有路由和加速卡的IP地址同样采用了CIDR组网技巧并且同一个网段内IP连续,因此可构建相应的多叉树。由于多叉树的每个父节点的权值为[当前父节点下的加速卡最小速率,当前父节点下加速卡数量]。因此,将多叉树中第i个路由对应的根节点下的权值为[ri,ni]。当根节点没有与加速卡直接相连时,第1个孩子节点(对应的第j个路由器节点)的权值可以表示为[sr1i,sn1i](也可以表示为[rj,nj])。第m个孩子节点(对应的第k个路由器节点)的权值可以表示为为[srmi,snmi](也可以表示为[rk,nk])。
S204:当接收到目标终端的资源请求信息时,根据所述资源请求信息确定目标加速卡数量和目标数据传输速率;
S205:通过遍历所述多叉树模型确定目标父节点,并将所述目标父节点下的加速卡分配给所述目标终端;
其中,本实施例提供了多叉树模型,并从多叉树模型选出一个基于不小于用户传输速率要求的不小于用户需求数量的加速卡。在此基础上,为实现对加速卡的统一管理,本实施例将云平台树型网络拓扑中的加速卡按照树型网络拓扑中实际物理连接相近的所有加速卡,为其依次进行IP编址;在此基础上,将云平台中的树型网络拓扑抽象为多叉树,多叉树每一级父节点的IP地址为路由器的地址,该节点的权值为[当前父节点下的加速卡最小速率,当前父节点下加速卡数量]。然后对该多叉树进行按层遍历,从而确定出不小于加速卡数量的父节点集合。根据树型网络拓扑中的构建相应的多叉树模型,每个父节点的权值为[父节点下加速卡的最小速率,父节点下的加速卡数量]。由于该多叉树是按照云平台树型网络拓扑中IP地址的32位地址从上往下的顺序搭建的,因此可在按层遍历算法的基础上查找符合不小于用户购买数量的拥有最小加速卡数量的路由节点及其IP地址。
S206:将分配给所述目标终端的加速卡标记为已分配加速卡;
S207:根据所述已分配加速卡的数量和数据传输速率更新所述多叉树模型。
其中,本实施例在向目标终端分配加速卡后,更新多叉树模型,避免出现加速卡重复分配的错误。本实施例中FPGA云平台将加速卡和路由器按照在树型网络拓扑中的物理位置进行初始化IP编址。树型网络拓扑中每个路由器节点可能为路由器或者加速卡,因此,采用CIDR(无类别域间路由)进行子网划分,子网内节点的IP地址设置为连续。
综上可知本申请提出了一种基于改进的多叉树按层深层遍历方法,具体过程如下:
步骤11、以根节点的第num位IP地址按照32位IP地址划分法开始构建根节点及其子网下的所有节点。
步骤12、对于依次搭建相应的多叉树。并按照权值的定义,从根节点开始按,每个父节点的权值需记录为[当前父节点下加速卡的最小传输速率,当前父节点下加速卡数量]。
步骤13、建树完成后,从根节点按层开始遍历。当遍历到的父节点(第i个路由器)的权值满足ni≥num1&&ri≥r,及其所有的孩子节点权值均满足snmi<num1&&srmi<r(其中m依次取值为第i个路由器的所有子路由器孩子节点)时,需要将该父亲节点下的所有加速卡的IP地址,及其权值添加至加速卡集合res中,并作为集合中一个单独的结果子集存在。
步骤14、执行步骤3直到当前IP地址层的所有节点的权值均小于用户的数量要求num1。
步骤15、返回满足用户的加速卡集合res。
上述方法的输入值可以包括:每个节点的IP地址,对应的权值。用户所需的加速卡数量num1,用户对板卡的速率要求r。主路由所对应的的根节点的子网地址(a.b.c.d/num,其中a,b,c,d均为大于0且小于256的正整数,1<num<32)。上述方法的输出值可以包括:满足用户需求的加速卡集合res。
在加速卡分配之前需要进行相应的日常维护,当连续工作时间越长维护成本越高。因此,为保证云平台的利益,本申请实施例在多叉树按层遍历结果的基础上可以通过改进的排序算法为其分配维护成本最低的方案。为减轻云平台的运营成本,还可以针对每个加速卡的持续工作时间,计算出每个加速卡集合中的维护成本。作为对于图1对应实施例的补充说明,本实施例还可以存在根据维护成本分配加速卡的操作。具体过程如下:
当S104确定的目标父节点的数量为1时,将所述目标父节点下的加速卡分配给所述目标终端的过程可以包括以下步骤:
步骤21:根据加速卡维护成本确定所述目标父节点下的加速卡的优先级;其中,所述加速卡维护成本与所述优先级负相关;
步骤22:将优先级前N位的加速卡设置为目标加速卡;其中,N为所述目标加速卡数量;
步骤23:将所述目标加速卡分配给所述目标终端。
当S104确定的目标父节点的数量大于1时,将所述目标父节点下的加速卡分配给所述目标终端的过程可以包括以下步骤:
步骤31:将每一所述目标父节点下的所有加速卡设置为加速卡集合;
步骤32:根据加速卡维护成本确定所述加速卡集合中的加速卡的优先级;其中,所述加速卡维护成本与所述优先级负相关;
步骤33:将每一所述加速卡集合中优先级前N位的加速卡设置为待选加速卡组;其中,N为所述目标加速卡数量;
步骤34:将加速卡组维护成本最低的待选加速卡组设置为目标加速卡组;
步骤35:将所述目标加速卡组对应的加速卡分配给所述目标终端。
具体的,计算加速卡维护成本的操作可以为根据加速卡的持续工作时长计算所述加速卡维护成本;其中,所述持续工作时长与所述加速卡维护成本正相关。
具体的,可以将所述待选加速卡组中所有加速卡的加速卡维护成本的和作为所述加速卡组维护成本。
由于云平台中加速卡的持续工作时间越长,相应的维护成本越大。因此,在满足用户需求的同时需要尽可能最小化云平台的维护成本。当满足用户数量和速率要求的加速卡集合res得到后,由于用户在云平台使用时的传输速率考虑到加速卡之间的传输速率,不同路由下的加速卡传输速率无法确定。因此满足用户需求的加速卡集合需要在同一个路由下的加速卡中选取。在此基础上,需要将每个集合中每个子集中加速按照维护成本值进行从小到大的排序。综上可知本申请提出了一种获得维护成本最低的子集中符合用户数量的板卡集合方法,具体过程如下:
步骤41、将经过算法1中得到的满足用户需求的加速卡集合res中的所有子集(假设为k)取出;
步骤42、在每个加速卡子集中,将每个子集中的加速卡按照阈值中的每个加速卡的维护成本,按照从小到大的顺序排序;
步骤43、从每个子集中按照维护成本从小到大的方式挑选出num1张加速卡。并记录该子集挑选出的num1张加速卡的维护成本之和。
步骤44、对每个子集挑选出的num1加速卡维护成本之和从小到大排序,从中选出维护成本最低的子集中num1张加速卡。将相应的num1张加速卡的IP地址信息填入加速卡集合resFinal中;
步骤45、返回resFinal。
上述方法的输入值可以包括:符合用户需求的加速卡集合res中每个子集的加速卡阈值信息(阈值信息格式为[每个加速卡的维护成本,IP地址])、用户需求的加速卡数量k。
上述方法的输出值可以为:满足用户需求的num1张加速卡的集合resFinal下面通过在实际应用中的实施例说明上述实施例描述的流程。
在云平台加速卡计算效率已定的情况下,为满足用户对云平台的传输速率的需求,同时减少网络I/O时间。本实施例在云平台树型网络拓扑的基础上提出了一种改进的多叉树按层遍历算法,从而得到满足用户所需的多个结果子集构成的结果集合;然后,为最小化由于加速卡持续工作导致的加速卡维护成本,提出了一种基于改进的排序算法,从上述一种改进的多叉树按层遍历算法得到的某个结果子集中挑选出维护成本最低的符合用户需求数量的加速卡。最后,通过以上两种算法,在实现FPGA云平台加速卡资源分配的基础上,实现了云平台和用户合作共赢。
为详细描述本发明所提出的一种FPGA云平台加速卡资源分配合作优化方法,本发明通过以下实例进行描述。本发明假设一种FPGA云平台的主路由器和其他路由器及加速卡等对应的子网拓扑,请参见图3图3为FPGA云平台网络拓扑结构示意图,假设用户购买的加速卡数量为2,所需加速卡传输速率为3M/S。本实施例根据CIDR子网划分和树型网络拓扑对其进行IP编址后,得到相应的多叉树结构,请参见图4,图4为FPGA云平台的多叉树结构示意图。按照算法对其进行按层遍历,依次遍历到第二层时可知2号节点和4号节点下的加速卡构成的子集可以满足用户的需求。因此,相应的结果集合res为{{(192.32.65.21、5M/S、1),(192.32.65.22、3M/S、1)},{(192.32.65.29、4M/S、1)、(192.32.65.30、6M/S、1)、(192.32.65.31、11M/S、1)}}。
为最小化用户的维护成本,由于维护成本与持续工作时间成正比。因此,按照持续工作时间对结果集合res中的子集进行排序。满足用户需求的2张加速卡所组成的集合resFinal为{(192.32.65.29),(192.32.65.30)}。由图3可知,对应的实际加速卡编号为4号和5号。因此,云平台最终为用户分配的加速卡为4号加速卡和5号加速卡。
在本实施例中,为满足用户对云平台的传输速率的需求,在云平台树型网络拓扑的基础上提出了一种改进的多叉树按层遍历算法,从而得到满足用户所需的多个结果子集构成的结果集合;然后,为最小化由于加速卡持续工作导致的加速卡维护成本,提出了一种基于改进的排序算法,从上述一种改进的多叉树按层遍历算法得到的某个结果子集中挑选出维护成本最低的符合用户需求数量的加速卡。最后,通过以上两种算法,在实现FPGA云平台加速卡资源分配的基础上,实现了云平台和用户合作共赢。
请参见图5,图5为本申请实施例所提供的一种FPGA云平台的加速卡分配系统的结构示意图;
该系统可以包括:
多叉树模型构建模块100,用于确定FPGA云平台对应的加速卡和路由器,并构建所述加速卡和所述路由器的多叉树模型;
查询模块200,用于查询所述多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;
目标信息确定模块300,用于当接收到目标终端的资源请求信息时,根据所述资源请求信息确定目标加速卡数量和目标数据传输速率;
分配模块400,用于通过遍历所述多叉树模型确定目标父节点,并将所述目标父节点下的加速卡分配给所述目标终端;其中,所述目标父节点下的加速卡最小数据传输速率大于或等于所述目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量。
本实施例首先根据FPGA云平台对应的加速卡和路由器构建多叉树模型,并统计每一父节点下的加速卡最小数据传输速率和加速卡数量。当接收到资源请求信息时,根据支援请求信息查询多叉树模型中符合该资源请求信息的目标父节点,并将目标父节点所包括的加速卡分配给目标终端。由于目标父节点的加速卡最小传输速率大于或等于目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量,因此目标父节点能够符合用户需求,能够在保证数据传输速率的前提下提高分配FPGA加速卡的效率。
进一步的,多叉树模型构建模块100具体用于根据所述路由器和所述加速卡在树型网络拓扑中的物理位置执行IP编址操作,并通过无类别域间路由的方式对所述路由器和所述加速卡进行子网划分操作,得到多叉树模型。
进一步的,当所述目标父节点的数量为1时,分配模块400包括:
第一优先级确定单元,用于根据加速卡维护成本确定所述目标父节点下的加速卡的优先级;其中,所述加速卡维护成本与所述优先级负相关;
目标加速卡设置单元,用于将优先级前N位的加速卡设置为目标加速卡;其中,N为所述目标加速卡数量;
第一加速卡分配单元,用于将所述目标加速卡分配给所述目标终端。
进一步的,当所述目标父节点的数量大于1时,分配模块400包括:
加速卡集合确定单元,用于将每一所述目标父节点下的所有加速卡设置为加速卡集合;
第二优先级确定单元,用于根据加速卡维护成本确定所述加速卡集合中的加速卡的优先级;其中,所述加速卡维护成本与所述优先级负相关;
待选卡组确定单元,用于将每一所述加速卡集合中优先级前N位的加速卡设置为待选加速卡组;其中,N为所述目标加速卡数量;
目标加速卡设置单元,用于将加速卡组维护成本最低的待选加速卡组设置为目标加速卡组;
第一加速卡分配单元,用于将所述目标加速卡组对应的加速卡分配给所述目标终端。
进一步的,还包括:
第一成本计算模块,用于根据加速卡的持续工作时长计算所述加速卡维护成本;其中,所述持续工作时长与所述加速卡维护成本正相关。
进一步的,还包括:
第二成本计算模块,用于将所述待选加速卡组中所有加速卡的加速卡维护成本的和作为所述加速卡组维护成本。
进一步的,还包括:
标记模块,用于在将所述目标父节点下的加速卡分配给所述目标终端之后,将分配给所述目标终端的加速卡标记为已分配加速卡;
模型更新模块,用于根据所述已分配加速卡的数量和数据传输速率更新所述多叉树模型。
本实施例在加速卡计算速度和效率已定情况下,为满足用户对云平台的传输速率的需求,解决加速卡之间和加速卡与用户之间的传输速率受限的实际情况,本发明在云平台树型网络拓扑的基础上提出了一种改进的多叉树按层遍历算法,从而得到满足用户所需的多个结果子集构成的结果集合;然后,为最小化由于加速卡持续工作导致的加速卡维护成本,提出了一种基于改进的排序算法,从上述一种改进的多叉树按层遍历算法得到的某个结果子集中挑选出维护成本最低的符合用户需求数量的加速卡。最后,通过以上两种算法,在实现FPGA云平台加速卡资源分配的基础上,实现了云平台和用户合作共赢。
由于系统部分的实施例与方法部分的实施例相互对应,因此系统部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
本申请还提供了一种存储介质,其上存有计算机程序,该计算机程序被执行时可以实现上述实施例所提供的步骤。该存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请还提供了一种电子设备,可以包括存储器和处理器,所述存储器中存有计算机程序,所述处理器调用所述存储器中的计算机程序时,可以实现上述实施例所提供的步骤。当然所述电子设备还可以包括各种网络接口,电源等组件。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的状况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (9)
1.一种FPGA云平台的加速卡分配方法,其特征在于,包括:
确定FPGA云平台对应的加速卡和路由器,并构建所述加速卡和所述路由器的多叉树模型;
查询所述多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;
当接收到目标终端的资源请求信息时,根据所述资源请求信息确定目标加速卡数量和目标数据传输速率;
通过遍历所述多叉树模型确定目标父节点,并将所述目标父节点下的加速卡分配给所述目标终端;其中,所述目标父节点下的加速卡最小数据传输速率大于或等于所述目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量;
其中,构建所述加速卡和所述路由器的多叉树模型包括:
根据所述路由器和所述加速卡在树型网络拓扑中的物理位置执行IP编址操作,并通过无类别域间路由的方式对所述路由器和所述加速卡进行子网划分操作,得到多叉树模型。
2.根据权利要求1所述加速卡分配方法,其特征在于,当所述目标父节点的数量为1时,将所述目标父节点下的加速卡分配给所述目标终端包括:
根据加速卡维护成本确定所述目标父节点下的加速卡的优先级;其中,所述加速卡维护成本与所述优先级负相关;
将优先级前N位的加速卡设置为目标加速卡;其中,N为所述目标加速卡数量;
将所述目标加速卡分配给所述目标终端。
3.根据权利要求1所述加速卡分配方法,其特征在于,当所述目标父节点的数量大于1时,将所述目标父节点下的加速卡分配给所述目标终端包括:
将每一所述目标父节点下的所有加速卡设置为加速卡集合;
根据加速卡维护成本确定所述加速卡集合中的加速卡的优先级;其中,所述加速卡维护成本与所述优先级负相关;
将每一所述加速卡集合中优先级前N位的加速卡设置为待选加速卡组;其中,N为所述目标加速卡数量;
将加速卡组维护成本最低的待选加速卡组设置为目标加速卡组;
将所述目标加速卡组对应的加速卡分配给所述目标终端。
4.根据权利要求2或3所述加速卡分配方法,其特征在于,还包括:
根据加速卡的持续工作时长计算所述加速卡维护成本;其中,所述持续工作时长与所述加速卡维护成本正相关。
5.根据权利要求3所述加速卡分配方法,其特征在于,还包括:
将所述待选加速卡组中所有加速卡的加速卡维护成本的和作为所述加速卡组维护成本。
6.根据权利要求1所述加速卡分配方法,其特征在于,在将所述目标父节点下的加速卡分配给所述目标终端之后,还包括:
将分配给所述目标终端的加速卡标记为已分配加速卡;
根据所述已分配加速卡的数量和数据传输速率更新所述多叉树模型。
7.一种FPGA云平台的加速卡分配系统,其特征在于,包括:
多叉树模型构建模块,用于确定FPGA云平台对应的加速卡和路由器,并构建所述加速卡和所述路由器的多叉树模型;
查询模块,用于查询所述多叉树模型上每一父节点下的加速卡最小数据传输速率和加速卡数量;
目标信息确定模块,用于当接收到目标终端的资源请求信息时,根据所述资源请求信息确定目标加速卡数量和目标数据传输速率;
分配模块,用于通过遍历所述多叉树模型确定目标父节点,并将所述目标父节点下的加速卡分配给所述目标终端;其中,所述目标父节点下的加速卡最小数据传输速率大于或等于所述目标数据传输速率,目标父节点下的加速卡数量大于或等于所述目标加速卡数量;
其中,所述多叉树模型构建模块用于根据所述路由器和所述加速卡在树型网络拓扑中的物理位置执行IP编址操作,并通过无类别域间路由的方式对所述路由器和所述加速卡进行子网划分操作,得到多叉树模型。
8.一种电子设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现如权利要求1至6任一项所述FPGA云平台的加速卡分配方法的步骤。
9.一种存储介质,其特征在于,所述存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如上权利要求1至6任一项所述FPGA云平台的加速卡分配方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910785360.XA CN110519090B (zh) | 2019-08-23 | 2019-08-23 | 一种fpga云平台的加速卡分配方法、系统及相关组件 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910785360.XA CN110519090B (zh) | 2019-08-23 | 2019-08-23 | 一种fpga云平台的加速卡分配方法、系统及相关组件 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110519090A CN110519090A (zh) | 2019-11-29 |
CN110519090B true CN110519090B (zh) | 2022-11-04 |
Family
ID=68626600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910785360.XA Active CN110519090B (zh) | 2019-08-23 | 2019-08-23 | 一种fpga云平台的加速卡分配方法、系统及相关组件 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110519090B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104363B (zh) * | 2019-12-27 | 2022-04-22 | 浪潮(北京)电子信息产业有限公司 | 一种fpga云平台使用方法、装置、设备、介质 |
CN111262917A (zh) | 2020-01-13 | 2020-06-09 | 苏州浪潮智能科技有限公司 | 一种基于fpga云平台的远端数据搬移装置和方法 |
CN111324558B (zh) * | 2020-02-05 | 2021-08-10 | 苏州浪潮智能科技有限公司 | 数据处理方法、装置、分布式数据流编程框架及相关组件 |
CN111858035A (zh) * | 2020-06-29 | 2020-10-30 | 浪潮电子信息产业股份有限公司 | 一种fpga设备分配方法、装置、设备及存储介质 |
CN112286688B (zh) * | 2020-11-05 | 2024-01-05 | 北京深维科技有限公司 | 一种内存管理和使用方法、装置、设备和介质 |
CN115987750A (zh) * | 2022-11-22 | 2023-04-18 | 西安鹏迪信息科技有限公司 | 一种基于分层的有限资源动态分配方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829512A (zh) * | 2018-05-09 | 2018-11-16 | 济南浪潮高新科技投资发展有限公司 | 一种云中心硬件加速计算力的分配方法、系统和云中心 |
CN110083558A (zh) * | 2019-06-03 | 2019-08-02 | 苏州长江睿芯电子科技有限公司 | 一种用于自适应可编程存储计算加速卡装置 |
-
2019
- 2019-08-23 CN CN201910785360.XA patent/CN110519090B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829512A (zh) * | 2018-05-09 | 2018-11-16 | 济南浪潮高新科技投资发展有限公司 | 一种云中心硬件加速计算力的分配方法、系统和云中心 |
CN110083558A (zh) * | 2019-06-03 | 2019-08-02 | 苏州长江睿芯电子科技有限公司 | 一种用于自适应可编程存储计算加速卡装置 |
Non-Patent Citations (1)
Title |
---|
面向SDN/NFV架构的VNF硬件加速资源编排机制;段通 等;《通信学报》;20180630;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110519090A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110519090B (zh) | 一种fpga云平台的加速卡分配方法、系统及相关组件 | |
CN109040259B (zh) | 一种基于mec的cdn节点分配方法和系统 | |
US9317336B2 (en) | Method and apparatus for assignment of virtual resources within a cloud environment | |
Feng et al. | Topology-aware virtual network embedding based on multiple characteristics | |
CN109451540B (zh) | 一种网络切片的资源分配方法和设备 | |
CN114090244B (zh) | 一种服务编排方法、装置、系统及存储介质 | |
CN103685583A (zh) | 一种域名解析的方法和系统 | |
CN104769550B (zh) | 在云计算网络中分配带宽的方法和系统 | |
CN105357322B (zh) | 一种基于拓扑划分的虚拟机分配方法 | |
CN109710406B (zh) | 数据分配及其模型训练方法、装置、及计算集群 | |
CN105515977B (zh) | 获取网络中传输路径的方法、装置和系统 | |
CN112202599B (zh) | 针对异构多核平台通信优化的拓扑感知映射方法及系统 | |
CN102388387A (zh) | 访问控制策略模板生成设备、系统、方法及程序 | |
CN111182037A (zh) | 一种虚拟网络的映射方法和装置 | |
CN102904824A (zh) | 服务提供实体选择方法及装置 | |
CN111611076B (zh) | 任务部署约束下移动边缘计算共享资源公平分配方法 | |
CN115134371A (zh) | 包含边缘网络算力资源的调度方法、系统、设备及介质 | |
WO2017207049A1 (en) | A node of a network and a method of operating the same for resource distribution | |
Liao et al. | Topology-aware virtual network embedding using multiple characteristics | |
Nguyen et al. | Rethinking virtual link mapping in network virtualization | |
CN113835823A (zh) | 资源调度方法和装置、电子设备、计算机可读存储介质 | |
CN108153494B (zh) | 一种io请求处理方法及装置 | |
CN107257356B (zh) | 一种基于超图分割的社交用户数据优化放置方法 | |
CN111880926B (zh) | 一种负载均衡方法、装置及计算机存储介质 | |
CN109062683A (zh) | 主机资源分配的方法、装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |