CN111767146A - 一种基于网络重配置的分布式机器学习系统加速方法 - Google Patents

一种基于网络重配置的分布式机器学习系统加速方法 Download PDF

Info

Publication number
CN111767146A
CN111767146A CN202010587173.3A CN202010587173A CN111767146A CN 111767146 A CN111767146 A CN 111767146A CN 202010587173 A CN202010587173 A CN 202010587173A CN 111767146 A CN111767146 A CN 111767146A
Authority
CN
China
Prior art keywords
auction
gpu resources
round
network
scheduling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010587173.3A
Other languages
English (en)
Inventor
裘翼滔
蒋从锋
欧东阳
闫龙川
殷昱煜
张纪林
黄震
赵子岩
李妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010587173.3A priority Critical patent/CN111767146A/zh
Publication of CN111767146A publication Critical patent/CN111767146A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Neurology (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明涉及一种基于网络重配置的分布式机器学习系统加速方法。本发明包括以下步骤:步骤1:调度器从数据库里获取一定数量待训练模型。步骤2:根据各个训练任务的位置偏好性将其划分成多个子任务部署到各个服务器上。步骤3:调度策略管理器不断根据各个任务距离达到时间公平性的难易程度分配GPU资源。步骤4:根据当前网络状况动态调整TCP缓冲区大小。步骤5:调度策略管理器根据负载运行情况将相应结果,记录到数据库中。步骤6:根据数据库中待训练模型的情况决定是否继续进行调度。本发明根据时间公平性和位置敏感性的任务调度策略,可以避免出现机器学习模型训练过程中出现长尾延迟等问题,提高了集群的服务质量。

Description

一种基于网络重配置的分布式机器学习系统加速方法
技术领域
本发明涉及机器学习系统通信与负载调度的实现方法,尤其是在大规模分布式机器学习系统中,通过合理优化调度减少模型训练时间的方法。
背景技术
随着人工智能技术的不断发展,海量数据的训练和大规模模型的出现使得单机模型训练日益不能满足人工智能应用在性能上的需求,因此有学者提出了数据并行和模型并行这样的分布式机器学习技术来提升模型的训练速度。数据并行目前已经被广泛地研究并进行性能方面的优化,然而随着模型规模的增大,对于单机内存无法容纳的大模型来说,模型并行是解决计算、存储瓶颈的唯一方法。
在模型并行中,需要将模型划分成多个部分以分配到多台设备上进行并行训练。对模型进行划分时,往往需要考虑模型的结构特点。比如对深层神经网络进行模型划分的时候,可以考虑模型的层次结构,进行逐层的横向划分或者跨层的纵向划分。两种划分方法各有其优缺点,比如采用逐层的横向划分时,各子模型之间的接口清晰、实现简单,但是受到层数的限制,并行度可能不够高,并且在极端情况下,单层的模型参数可能已经超出了一个工作节点的容限。采用跨层的纵向划分方式,可以将模型切分成更多份,但是各子模型之间的依赖关系会更加复杂,实现起来难度更大,并且通信代价也比较高。所以目前分布式机器学习模型训练速度慢,模型参数规模大导致通信代价较高等依然是模型并行面临的主要问题。
模型训练速度慢的一个主要原因之一就是集群中GPU资源存在分配不公平的情况。目前企业通常将GPU资源整合到一个共享集群中来提供服务,和用于大数据分析的集群类似,用于机器学习模型训练任务的GPU共享集群同样具备了多方面的优势,例如减少了开发工作,降低了GPU的维护成本等。但是目前并没有一种针对机器学习负载所设计的能够公平地共享集群GPU资源的任务调度策略。
公平地分配GPU资源对于模型训练任务而言至关重要。研究表明,只有当集群中GPU资源能够被公平得分配给负载时,用户才愿意将训练任务部署到集群上。举个例子,假如有N个用户共享一个GPU集群,集群大小为C,那么理论上来说,每个用户得到的性能体验不能低于大小为C/N的私有集群,这一理论被称为共享激励机制。如果不能保证共享激励机制,那么意味着用户或者需要等待很长一段时间其部署的训练任务才能被调度器调度,或者放弃集群资源转而自己去部署那些昂贵的硬件。
虽然通过公平调度机制提供共享激励的策略已经在先前的集群调度器中得到了广泛研究,例如Quincy,DRF和Carbyne等等。但是,这些技术是专为大数据处理任务而设计的,尽管它们如今已被广泛用于管理GPU集群,但效果远远不如预期。主要原因是由于模型训练任务的工作负载有其独特性,这些特性使现有所谓的“公平”分配方案实际上产生了不公平的结果。首先,与批处理分析任务不同,机器学习任务负载运行周期长,而且这些负载执行需要按照一定的先后顺序。其次,作业中的每个任务通常需要进行多次迭代,在每次迭代结束时还要同步更新模型。另外负载之间需要进行频繁的通信,而频繁的通信意味着属于同一任务的负载所在服务器位置会对任务的性能产生影响(也叫做位置敏感性),所以将同一任务的所有负载放置在同一台机器或同一机架上可显着提高训练速度。但是将同一任务的所有负载放置在同一台机器或同一机架上无法保证执行时的容错性,而且不同的模型训练任务的位置敏感性又是不同的。
模型训练速度慢点的另一个原因是由于参数规模大而导致负载之间进行同步时通信代价较高。虽然目前有可重配置的电路交换机(例如,光或无线)来增强数据中心网络的功能,但是,对于终端设备来说,要想充分利用结合了电路和分组网络的可重配置数据中心网络(RDCN)的全部性能并不是一件容易的事。电路交换器在调整高带宽网络拓扑时会产生一个新配置生效延迟,在这个延迟时间内电路网络的某些部分可能不可用。因此,这样的混合设计会经常导致网络在高带宽和低带宽之间抖动。虽然乍看起来高带宽能够带来更好的网络性能,但是最近的一些研究表明数据中心应该经常调整网络拓扑规则。然而频繁调整网络拓扑规则就会带来一个不可避免的问题:对于应用程序而言,当切换到高带宽网络时,当前存活的TCP连接必须必须迅速提高传输速率以充分利用多余的带宽,然后当切换到低带宽时又要降低传输速率以避免网络拥堵,否则就会对TCP造成性能影响。
另外,TCP与RDCN的交互最初是在支持毫秒级重新配置延迟的交换机中进行的。考虑到现代数据中心中普遍存在的亚毫秒级传播延迟,毫秒级重配置网络中的电路使用了往返时间(RTT)作为本次网络连接存活时间的计量单位,因此TCP能够适应这些时间段内的连接速度变化。但是,目前支持重置的交换机其配置生效的延迟时间已经达到微秒级别。较低的重置时间能够能够在降低开销的同时将多余带宽配置到更有需要的地方,但是在这种情况下TCP传输速率上升得太慢从而无法充分利用短时大量增加的带宽,因此网络带宽利用率依旧很低。
发明内容
由于目前分布式机器学习系统所使用的调度器是针对大数据处理任务所设计的,这些调度器在调度时没有充分考虑到机器学习任务负载的特性,使得模型训练中常出现长尾延迟等问题。另外,模型训练过程中经常涉及不同服务器之间的数据同步,而分布式机器学习模型通常具有较大的数据规模,因此服务器之间进行通信时对网络性能的要求较高,虽然目前数据中心中出现了可重配置网络等网络优化技术,但是由于底层TCP技术栈的一些限制,网络的利用率并没有得到实际的提高。因此,本发明在优化了数据中心可重配置网络的基础上,针对分布式机器学习任务的特点,设计了一套公平调度策略,使得部署在同一集群中的模型能合理获取到GPU资源,最终提高了模型的训练速度。
本发明解决技术问题所采取的技术方案为:
步骤1:调度器从数据库里获取一定数量待训练模型,包括其参数、位置偏好性等具体信息。
步骤2:根据各个训练任务的位置偏好性将其划分成多个子任务部署到各个服务器上。
步骤3:在模型训练程序运行过程中,调度策略管理器不断根据各个任务距离达到时间公平性的难易程度分配GPU资源。
步骤4:在一轮迭代过后各个负载之间需要进行数据同步时,根据当前网络状况动态调整TCP缓冲区大小。
步骤5:调度策略管理器根据负载运行情况将相应结果,比如训练是否成功等信息,记录到数据库中。
步骤6:根据数据库中待训练模型的情况决定是否继续进行调度。
在实施上述步骤过程中涉及到以下两方面:基于时间公平性和位置敏感性的调度策略,基于可重配置网络的TCP优化策略。
(1)基于时间公平性和位置敏感性的调度策略
针对已有的调度器没有考虑机器学习模型负载调度周期长、运行周期长以及对部署位置的敏感性等特点,本发明提出了一种新的基于时间公平性和位置敏感性的调度策略。本发明将一个应用程序时间公平性定义为N个应用程序在共享集群中的运行完成时间与该应用程序单独在1/N规模的集群中运行完成所需时间之比。为了在达到时间公平性的同时考虑到位置敏感性,采取了如下两种策略。
第一,扩展了应用程序和训练平台之间的接口,从而使开发者可以直接在应用程序里设置在不同GPU资源分配情况下该应用程序达到时间公平性的值。为此,在单次拍卖的基础上引入了逐轮拍卖的概念,同时使用租约来管理长期运行的模型训练任务。在租约到期时调度程序会重新开始进行GPU资源的拍卖。每次拍卖开始时,调度程序会从训练任务处获得其完成时间公平性的指标。每个应用都有机会对目前可用的GPU资源进行竞标(GPU资源被划分成多种规格大小进行拍卖)。应用程序会根据不同GPU资源对其达到时间公平性的帮助程度大小进行投标,然后由一个中央仲裁程序确定中标价格,从而在最大程度上确保所有出价的应用都能够达到时间公平性。使用拍卖的方式意味着所有应用程序应当根据自己实际情况出价,即要确保应用程序没有多要GPU资源。为了保证这一点,使用部分拍卖的方式来尽可能保证应用程序根据实际所需GPU资源进行报价。该方法从整个过程来看是保证公平分配的,同时在短期内能够确保负载的高效运行和对位置敏感性的考虑。
第二,提出了两级调度体系设计,该调度体系中主要包含一个底层中央调度器和一些简洁明了的接口。中央调度器用于协调各个不同的应用程序,而接口是为了和上层超参数调节框架进行整合。目前许多现有的框架,例如Hyperdrive和HyperOpt,可以在单个应用程序中智能地在各种作业之间分配GPU资源,并且在某些情况下,如果用户对目前程序的运行进展不满意,也可以提前终止程序。本发明的设计中允许应用程序直接使用此类现有的超参数调整框架。
(2)基于可重配置网络的TCP优化策略
机器学习模型训练过程中不同负载之间需要进行大规模的数据同步,而目前数据中心里对可重配置网络的利用率并不高,主要原因在于底层的TCP技术栈实现无法适应短时间内突然变大或变小的网络带宽。为此,本发明提出了一种基于可重配置网络的TCP优化策略,该策略对目前系统底层的TCP实现是完全无侵入性的。也就是说,完全可以在现有的系统基础上使用该策略来提高网性能。
本发明通过解决由于TCP缓冲区大小不能和网络带宽的变化速度相匹配导致的数据包丢失问题来促使TCP尽可能快地提升数据包发送速率,从而提高数据中心内部网络带宽的利用率。为此,本发明需要在数据发送过程中动态调整TCP缓冲区的大小。调整TCP缓冲区的大小并不需要对终端设备进行任何改动,因此完全可以在现有的TCP栈下实现这一技术。通常情况下,在可重配置网络中网络带宽发生波动的时间是可以根据调度策略预知的,而且调整TCP缓冲区的大小并不需要对终端设备进行任何改动,因此所做的改动对服务器而言是完全透明的。
为了进一步提升数据中心内部的网络性能,还对TCP协议底层做了一些设置。如果消息接收方接收数据包的频率或可用网络带宽明显下降,那么就将TCP回复消息头部的ECN-Echo(ECE)标志位设为1,以便消息发送方适当减小缓冲区大小从而降低消息的发送频率,等到消息接收方接收数据包的频率或可用网络带宽重新提高时再将ECN-Echo(ECE)标志位设为0。
本发明的有益效果:本发明在系统运行阶段可以有多种效果不同的调度方法,而根据时间公平性和位置敏感性的任务调度策略,可以避免出现机器学习模型训练过程中出现长尾延迟等问题,提高了集群的服务质量。本发明通过竞拍的方式,根据任务达到时间公平性的难易程度合理分配GPU资源,同时结合TCP动态调整策略,在保证模型训练质量的基础上进一步加快了模型的训练速度。
附图说明
图1是基于网络重配置提升机器学习模型分布式训练速度方法体系结构图。
图2是调度系统体系结构图。
图3是数据中心内部可重配置网络原理图。
具体实施方式
以下结合附图对本发明作进一步说明,请参阅图1和图3;图1给出了本发明提出的基于网络重配置提升机器学习模型分布式训练速度方法体系结构。其中1是模型数据库;2、3、4分别是调度策略管理器、调度器、状态存储器,构成了资源协调器;5、6、7分别是机架顶部的无线路由器、机架内部的工作机和交换机。
下面对本发明体系结构重要组成部分做具体介绍。
(1)模型数据库
模型数据库用于存储用户提交的待训练的机器学习模型,以及存储待训练模型相关参数,资源协调器会从该数据库里主动拉取待训练模型,训练完成后,资源协调器会将训练结果,训练是否成功等信息存入数据库中。
(2)调度策略管理器
调度策略管理器从状态存储器内读取数据中心内各个工作机空闲GPU资源信息,并且根据不同时刻的各个训练任务达到时间公平性的难易程度,使用局部拍卖的方式将这些空闲GPU资源分配给对应的负载。当新的机器学习任务来临时,调度策略管理器负载判断任务类型,并生成调度安排后发给调度器执行。每隔固定时间间隔调度策略管理器会统计当前空闲的GPU资源,并把如何分配这些空闲GPU资源的策略发送给调度器。
(3)调度器
本发明中的调度器用于进行数据中心内GPU资源的调度。通过与数据中心内调度控制器通信,控制GPU资源的动态分配更等,实现优化策略的下达。同时,调度器负责接收数据中心中状态收集器收集的GPU资源监控数据,同调度动作一同送往状态存储器。
(4)状态存储器
本发明中的状态存储器用于调度器动作与GPU资源状态的存储。根据策略学习设置的窗口大小,以一定频率将状态发送给调度策略管理器。
(5)无线路由器
本发明中的无线路由器在数据中心有线网络的基础上对数据中心的网络进行增强,整个无线网络拓扑可以随时进行更改。
(6)服务器
本发明中的工作机负责执行具体的机器学习训练任务。调度器通过分析各个训练任务的位置偏好性将负载部署到各个工作机上,当每轮迭代过后属于同一训练任务的负载之间需要进行通信时,由工作机将通信数据发往交换机或路由器。
(7)交换机
交换机主要用来转发负载之间的通信数据,本发明中的交换机能够根据网络带宽的变化动态调整缓冲队列的大小,从而有效提高了网络带宽利用率。
图2是基于时间公平性的公平调度机制体系结构。本发明中的公平调度机制可以有效实现时间公平性这个服务级目标。为了实现时间公平性,本发明在调度过程中引入了类似拍卖的过程。
下面对公平调度机制的主要过程做具体介绍。
步骤1:中央仲裁程序获取所有应用程序的时间公平性指标;
步骤2:中央仲裁程序初始化拍卖过程;
步骤3:所有应用程序并行获取即将拍卖的GPU资源信息以准备报价;
步骤4:中央仲裁程序在每一个轮拍卖过程中根据所有应用程序的报价决定该轮拍卖的获胜者,拍卖结果由代理程序通知每个应用程序;
步骤5:代理程序将赢得拍卖的应用程序所应该分配到的GPU资源通知资源调度器进行分配。
本发明提出了一种基于可重配置网络加速机器学习系统的方法,步骤如下:
步骤1:调度器从数据库里获取一定数量待训练模型,包括其参数、位置偏好性等具体信息。
步骤2:根据各个训练任务的位置偏好性将其划分成多个子任务部署到各个服务器上。
步骤3:在模型训练程序运行过程中,调度策略管理器不断根据各个任务距离达到时间公平性的难易程度分配GPU资源。
步骤4:在一轮迭代过后各个负载之间需要进行数据同步时,根据当前网络状况动态调整TCP缓冲区大小。
步骤5:调度策略管理器根据负载运行情况将相应结果,比如训练是否成功等信息,记录到数据库中。
步骤6:根据数据库中待训练模型的情况决定是否继续进行调度。
下面分别对上述实施步骤进行详细说明。
(1)步骤1
调度器从存有待训练模型信息的数据中获取待训练模型的所有数据,包括模型的输入参数,位置偏好性,日志文件位置等信息。
(2)步骤2
根据各个训练任务的位置偏好性将其划分成多个子任务部署到各个服务器上。
(3)步骤3
在模型训练程序运行过程中,调度策略管理器不断根据各个任务距离达到时间公平性的难易程度分配GPU资源。为此,首先定义了时间公平性的计算公式:
Figure BDA0002555083200000071
其中,Tid是将模型放在一个独立集群进行训练的完成时间,而Tsh是将模型放在共享集群中进行训练的完成时间。与应用程序在独立集群中的运行状况不同,在共享集群中的完成时间还要考虑由于负载放置以及应用程序在共享集群中进行调度时遇到的任何排队延迟而导致的速度下降问题,所以放置位置越不理想,Tsh的值越高。因此根据定义,如果时间公平性的值小于1,则将模型放在共享集群中进行训练所需的时间更短。所以为了确保时间公平性,分配机制必须针对不同的GPU分配情况估算各个训练任务的时间公平性的值。但是由于不同应用在不同GPU资源分配情况下的性能具有极大的差异,所以调度引擎很难预测或确定时间公平性这个指标的值。
因此,在应用程序和调度引擎之间实现了一个接口,该接口可以允许该应用程序以表格的形式为多种GPU资源分配表达偏好程度。表格中每列都由一个可能的GPU分配情况和在该分配情况下应用程序时间公平性的估计值组成。调度引擎后续可以通过这个表格来进行GPU资源的公平分配。
为了保证应用程序不会故意要求超出其实际需要的GPU资源,本发明提出了在调度过程中使用拍卖的方法进行GPU资源分配。首先介绍了单次拍卖策略,然后将基于单次拍卖引入在资源分配过程中使用的多次拍卖策略。
单次拍卖
为了便于描述,本发明首先给出了进行拍卖所需的输入信息,然后再具体描述如何进行拍卖。
拍卖需要的输入为当前可用的GPU资源以及应用程序对资源的报价。本发明使用一个数组表示当前可用的GPU资源,数组的长度代表当前可用的GPU数量,数组中每个元素的初始值均为1,表示该GPU是空闲的。当某个GPU被分配给某个应用程序后,数组相应位置的元素值变为0。后续每个应用程序根据不同GPU分配方案对其达到时间公平性指标的难易程度进行相应的报价。
单次拍卖主要由以下两部分组成:
1.初始分配。首先基于所有应用程序的完成时间计算所有应用程序的初始时间公平性,然后为每个应用程序分配相应的GPU资源。
2.确保应用程序根据实际情况申请GPU资源。为了让应用程序能够根据实际情况申请GPU资源,在拍卖过程中使用GPU部分分配资源的方式。
多次拍卖
为了最大程度上缩短所有应用程序在共享集群中的运行时间,希望尽可能多的应用程序的时间公平性的值小于1。为此本发明采取了在单次拍卖的基础上采取了多次拍卖的方法,主要包含如下三个过程:
1.逐轮拍卖。在逐轮拍卖过程中,拍卖所得的GPU资源使用权仅在租约期限内有效。租约到期后,被释放的GPU资源将被重新拍卖。这种方式同样适用于线上场景,因为当GPU资源空闲时就可以触发新一轮拍卖。同时这种方式也考虑到了应用程序失效和运行参数可能会被重新配置等情况。
2.逐轮过滤。为了让尽可能多的应用程序的时间公平性的值小于1,在每轮拍卖开始前,本发明会将部分时间公平性值较大的应用程序排除,即这些应用程序不具备本轮竞拍资格。这样做可以尽可能将资源不要浪费在不可能达到时间公平性的应用程序上。并且逐轮过滤也减少了应用程序对GPU资源的竞争程度,从而使应用程序可以通过更低的竞拍价获得相同的资源。
虽然在每一轮中都过滤一些时间公平性值比较大的应用程序可能导致这些应用程序的时间公平性值进一步增大,但是在下一轮拍卖中,这些应用程序竞拍得到GPU资源的概率会比上一轮中已经获得GPU资源的应用程序要大。这是因为经过上一轮拍卖,有些应用程序的时间公平性值已经小于1了,没必要再去获取更多的GPU资源,因此采取逐轮过滤的策略是合理的。
3.剩余分配。由于采用了部分拍卖策略,在每轮拍卖结束后都会有部分剩余的GPU资源没有被分配出去,因此在每轮拍卖结束后将这些剩余的GPU资源随机分配给未参与本轮拍卖的应用,从而提高资源利用率。
(4)步骤4
在一轮迭代过后各个负载之间需要进行数据同步时,根据当前网络状况设定TCP缓冲区大小。
为了提升TCP对快速变化的带宽的适应性,提出了一种动态调整TCP缓冲区大小的方法。由于RDCN内网络带宽的变动是根据调度计划的进行的,并不是随意变动的,因此可以根据网络带宽的变化以及消息接收方接收数据包速率的大小来实时地调整TCP缓冲区大小。通过上述方法,分组交换器仅用一个非常小的TCP缓冲区就可以有效实现高吞吐率。本发明在源服务器和目标服务器所在的机架之间的连接建立之前就开始动态调整TCP缓冲区大小的初始值,然后再启动这两个机架之间的网络连接。如果事先的调度计划中已经确定了该机架对之间的通信会将大部分时间花费在数据包交换机上,那么将使用较小的TCP缓冲区来避免产生额外的延迟。提前调整TCP缓冲区大小有两个好处:1)数据包会先在缓冲区中累积,然后在连接建立时这些数据包立即被丢弃,从而产生瞬时突发流量以维持高带宽;2)当缓冲的数据包被发送完时,它们会生成大量的ACK消息从而增加消息发送者的拥塞窗口(cwnd)和发送速率。
动态调整TCP缓冲区大小主要包括以下三个步骤:
a.设置TCP缓冲区大小的最小值和最大值;
b.设定时间t,即在网络连接建立的t毫秒之前就开始动态调整TCP缓冲区大小;
c.在通信过程中根据实际发送的数据包数量以及网络带宽的变化动态调整TCP缓冲区大小。如果消息接收方接收数据包的速率或可用网络带宽明显下降,那么就要将TCP回复报文头部的ECN-Echo(ECE)标志位设为1,以便消息发送方适当减小缓冲区大小从而降低消息的发送速率,等到消息接收方接收数据包的速率或可用网络带宽重新提高时再将
ECN-Echo(ECE)标志位设为0。
(5)步骤5
调度策略管理器根据各个模型训练任务的负载运行情况,将相应结果,比如本次训练过程是否成功等信息记录到数据库中,以便后续分析
(6)步骤6
当有训练任务完成时,调度策略管理首先从数据库中查询是否还有待训练任务,如果还有的话,则根据当前集群资源从数据库中继续拉取一定数量的模型信息开始执行训练任务。

Claims (4)

1.一种基于可重配置网络加速分布式机器学习系统的方法,其特征在于该方法包括如下步骤:
步骤1: 调度器从数据库里获取一定数量的待训练模型,包括待训练模型的输入参数、位置偏好性和日志文件位置;
步骤2: 根据各个训练任务的位置偏好性将待训练模型划分成多个子任务部署到各个服务器上;
步骤3: 在模型训练程序运行过程中,调度策略管理器不断根据各个任务距离达到时间公平性的难易程度分配GPU资源;
所述分配GPU资源过程中使用拍卖策略,所述的拍卖策略包括单次拍卖和多次拍卖;
所述的单轮拍卖主要由以下两部分组成:
A. 初始分配;基于所有应用程序的完成时间计算所有应用程序的初始时间公平性,然后为每个应用程序分配相应的GPU资源;
B. 确保应用程序根据实际情况申请GPU资源;为了让应用程序能够根据实际情况申请GPU资源,在拍卖过程中使用GPU资源部分分配的方式;
多次拍卖主要由以下三部分组成
C. 逐轮拍卖;在逐轮拍卖过程中,拍卖所得的GPU资源使用权仅在租约期限内有效;租约到期后,被释放的GPU资源将被重新拍卖;
D. 逐轮过滤;在每轮拍卖开始前,将部分时间公平性值较大的应用程序排除;
E. 剩余分配;每轮拍卖结束后将剩余的GPU资源随机分配给未参与本轮拍卖的应用;
步骤4: 在模型训练程序一轮迭代过后各个负载之间进行数据同步时,根据当前网络状况动态调整TCP缓冲区大小;
所述的动态调整TCP缓冲区主要分成以下三步:
a.设置TCP缓冲区大小的最小值和最大值;
b.设定时间t,即在网络连接建立的t毫秒之前就开始动态调整TCP缓冲区大小;
c.在通信过程中根据实际发送的数据包数量以及带宽的变化动态调整TCP缓冲区大小;
如果消息接收方接收数据包的频率或可用网络带宽明显下降,那么将TCP回复报文头部的ECN-Echo标志位设为1,以便消息发送方适当减小缓冲区大小从而降低消息的发送频率,等到消息接收方接收数据包的频率或可用网络带宽重新提高时再将ECN-Echo标志位设为0;
步骤5: 调度策略管理器根据负载运行情况将相应结果记录到数据库中;
步骤6: 根据数据库中待训练模型的情况决定是否继续进行调度。
2.根据权利要求1所述的一种基于可重配置网络加速分布式机器学习系统的方法,其特征在于:步骤3中所述的时间公平性由训练任务在共享集群中的完成时间与应用程序在一个单独集群中的完成时间确定。
3.根据权利要求1或2 所述的一种基于可重配置网络加速分布式机器学习系统的方法,其特征在于:步骤3中使用租约来管理长期运行的模型训练任务,在租约到期时调度程序重新开始进行GPU资源的拍卖。
4.根据权利要求1所述的一种基于可重配置网络加速分布式机器学习系统的方法,其特征在于:步骤4中在源服务器和目标服务器之间的网络连接建立之前先动态调整TCP缓冲区的大小,然后再建立两台服务器之间的网络连接;并且,如果事先的调度计划中已经确定了两台服务器所在的机架之间的通信在通信时会将大部分时间花费在数据包交换机上,那么使用较小的TCP缓冲区来避免产生额外的延迟。
CN202010587173.3A 2020-06-24 2020-06-24 一种基于网络重配置的分布式机器学习系统加速方法 Pending CN111767146A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010587173.3A CN111767146A (zh) 2020-06-24 2020-06-24 一种基于网络重配置的分布式机器学习系统加速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010587173.3A CN111767146A (zh) 2020-06-24 2020-06-24 一种基于网络重配置的分布式机器学习系统加速方法

Publications (1)

Publication Number Publication Date
CN111767146A true CN111767146A (zh) 2020-10-13

Family

ID=72722129

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010587173.3A Pending CN111767146A (zh) 2020-06-24 2020-06-24 一种基于网络重配置的分布式机器学习系统加速方法

Country Status (1)

Country Link
CN (1) CN111767146A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329834A (zh) * 2020-10-29 2021-02-05 北京百度网讯科技有限公司 循环网络模型训练时显存空间的分配方法和装置
CN112395272A (zh) * 2021-01-20 2021-02-23 鹏城实验室 通信算法数据库构建方法、分布式机器装置和存储介质
CN114490094A (zh) * 2022-04-18 2022-05-13 北京麟卓信息科技有限公司 一种基于机器学习的gpu显存分配方法及系统
CN114528101A (zh) * 2022-02-14 2022-05-24 贵州电网有限责任公司 一种应用于电力边缘计算的神经网络的结构化动态量化方法
US11416300B2 (en) * 2017-06-29 2022-08-16 Intel Corporaton Modular accelerator function unit (AFU) design, discovery, and reuse

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11416300B2 (en) * 2017-06-29 2022-08-16 Intel Corporaton Modular accelerator function unit (AFU) design, discovery, and reuse
CN112329834A (zh) * 2020-10-29 2021-02-05 北京百度网讯科技有限公司 循环网络模型训练时显存空间的分配方法和装置
CN112329834B (zh) * 2020-10-29 2023-08-01 北京百度网讯科技有限公司 循环网络模型训练时显存空间的分配方法和装置
CN112395272A (zh) * 2021-01-20 2021-02-23 鹏城实验室 通信算法数据库构建方法、分布式机器装置和存储介质
CN114528101A (zh) * 2022-02-14 2022-05-24 贵州电网有限责任公司 一种应用于电力边缘计算的神经网络的结构化动态量化方法
CN114490094A (zh) * 2022-04-18 2022-05-13 北京麟卓信息科技有限公司 一种基于机器学习的gpu显存分配方法及系统
CN114490094B (zh) * 2022-04-18 2022-07-12 北京麟卓信息科技有限公司 一种基于机器学习的gpu显存分配方法及系统

Similar Documents

Publication Publication Date Title
CN111767146A (zh) 一种基于网络重配置的分布式机器学习系统加速方法
CN110662238B (zh) 一种针对边缘网络下突发请求的强化学习调度方法及设备
CN109697122B (zh) 任务处理方法、设备及计算机存储介质
CN109445944A (zh) 一种基于dpdk的网络数据采集处理系统及其方法
CN109614215B (zh) 基于深度强化学习的流调度方法、装置、设备及介质
CN107454017B (zh) 一种云数据中心网络中混合数据流协同调度方法
CN109564528B (zh) 分布式计算中计算资源分配的系统和方法
Dimopoulos et al. Justice: A deadline-aware, fair-share resource allocator for implementing multi-analytics
Cheng et al. Mitigating the negative impact of preemption on heterogeneous mapreduce workloads
CN113672391B (zh) 一种基于Kubernetes的并行计算任务调度方法与系统
CN112799823A (zh) 边缘计算任务的在线分派调度方法和系统
WO2024021489A1 (zh) 一种任务调度方法、装置及Kubernetes调度器
CN111143036A (zh) 一种基于强化学习的虚拟机资源调度方法
CN116401055B (zh) 面向资源效率优化的服务器无感知计算工作流编排方法
CN109729113B (zh) 管理专用处理资源的方法、服务器系统和计算机程序产品
CN113486042B (zh) 数据处理方法、装置、计算机可读介质及电子设备
Li et al. Co-Scheduler: A coflow-aware data-parallel job scheduler in hybrid electrical/optical datacenter networks
CN113190342B (zh) 用于云-边协同网络的多应用细粒度卸载的方法与系统架构
CN114416355A (zh) 资源调度方法、装置、系统、电子设备及介质
CN114721818A (zh) 一种基于Kubernetes集群的GPU分时共享方法和系统
Benoit et al. Max-stretch minimization on an edge-cloud platform
Lin et al. {RingLeader}: efficiently Offloading {Intra-Server} Orchestration to {NICs}
CN116302578B (zh) 一种QoS约束的流应用延迟确保方法及系统
Chiang et al. DynamoML: Dynamic Resource Management Operators for Machine Learning Workloads.
Bensalem et al. Towards optimal serverless function scaling in edge computing network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination