CN116909748A - 算力资源分配方法、装置、电子设备及存储介质 - Google Patents
算力资源分配方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116909748A CN116909748A CN202310913291.2A CN202310913291A CN116909748A CN 116909748 A CN116909748 A CN 116909748A CN 202310913291 A CN202310913291 A CN 202310913291A CN 116909748 A CN116909748 A CN 116909748A
- Authority
- CN
- China
- Prior art keywords
- computing power
- computing
- subtask
- subtasks
- resources
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000013468 resource allocation Methods 0.000 title claims abstract description 61
- 238000004364 calculation method Methods 0.000 claims abstract description 128
- 238000012549 training Methods 0.000 claims description 35
- 238000003062 neural network model Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 7
- 239000002699 waste material Substances 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 description 189
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000013508 migration Methods 0.000 description 7
- 230000005012 migration Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- BASFCYQUMIYNBI-UHFFFAOYSA-N platinum Chemical compound [Pt] BASFCYQUMIYNBI-UHFFFAOYSA-N 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- RYAUSSKQMZRMAI-YESZJQIVSA-N (S)-fenpropimorph Chemical compound C([C@@H](C)CC=1C=CC(=CC=1)C(C)(C)C)N1C[C@H](C)O[C@H](C)C1 RYAUSSKQMZRMAI-YESZJQIVSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229910052697 platinum Inorganic materials 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本公开提供了一种算力资源分配方法、装置、电子设备及存储介质,涉及智能运算技术领域。该方法包括:将接收的AI任务拆解为多个AI子任务,确定每个AI子任务的属性信息;获取处于空闲状态的多个算力资源和每个算力资源的属性信息;将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间;基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果。本公开能够避免算力资源浪费,用户等待时间大大缩短,改善用户体验感。
Description
技术领域
本公开涉及智能运算技术领域,尤其涉及一种算力资源分配方法、装置、电子设备及存储介质。
背景技术
随着AI(Artificial Intelligence,人工智能)算法的不断发展,对AI算力服务的需求大幅增长,一方面需要超强计算力的算力设备,如以CPU(Central Processing Unit,中央处理器)、AI加速芯片为主体的AI服务器,另一方面需要大量的数据存储能力,用于训练模型、提高泛化能力等。目前各行各业基本上都有较高的AI算力需求,而高性能AI服务器成本较高。基于多方需求,智算中心应运而生,其汇集大量算力资源,不同于云数据中心、超算中心,智算中心面向社会所有对象,如企业、个人等,能够提供AI算力支持、算法指导、数据共享等功能。当前如医疗影像、智慧农林、自动驾驶等都有相应的应用场景。
智算中心汇总大量的AI算力资源,但由于算力任务复杂繁多且算力资源有限,导致算力资源的需求比较紧张。目前,用户向智算中心上传任务需求,然后自行选择所需算力资源,这样可能导致在一定程度上造成部分算力资源的浪费,也会导致用户等待算力任务执行的时间很长,用户体验感不佳。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种算力资源分配方法、装置、电子设备及存储介质,至少在一定程度上克服相关技术中部分算力资源浪费,用户等待算力任务执行的时间很长,用户体验感不佳的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一个方面,提供了一种算力资源分配方法,包括:
将接收的AI任务拆解为多个AI子任务,确定每个AI子任务的属性信息;
获取处于空闲状态的多个算力资源和每个算力资源的属性信息;
将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间;
基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果。
在本公开一些实施例中,提供的算力资源分配方法,还包括:预先训练所述算力计算时间确定模型。
进一步地,预先训练所述算力计算时间确定模型,包括:
基于获取的历史运算数据,得到多个历史AI子任务的属性信息、每个历史AI子任务使用的算力资源的属性信息和每个历史AI子任务对应的算力计算时间;
以历史AI子任务的预估算力计算时间为输出,以历史AI子任务的属性信息和历史AI子任务使用的算力资源的属性信息为输入,构建用于预估历史AI子任务使用算力资源进行计算的算力计算时间的神经网络模型;
利用历史AI子任务对应的算力计算时间,对所述神经网络模型进行训练,得到训练好的算力计算时间确定模型。
在本公开一些实施例中,于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果,包括:
基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,得到每个AI子任务对应的算力资源与算力计算时间之间的函数关系;
以算力资源不超出算力能力为约束条件,以多个AI子任务对应的算力计算时间之和最小为目标,进行寻优,确定每个AI子任务所使用的算力资源;
将每个AI子任务所使用的算力资源,作为多个AI子任务的算力资源分配结果。
进一步地,若以算力资源不超出算力能力为约束条件,以多个AI子任务对应的算力计算时间之和最小为目标,进行寻优,无法确定每个AI子任务所使用的算力资源,基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果,还包括:
利用遍历法,确定每个AI子任务所使用的算力资源,以使多个AI子任务对应的算力计算时间之和最小为目标。
在本公开一些实施例中,所述AI子任务的属性信息,至少包括:AI子任务类型、AI子任务计算数量、AI子任务训练样本类型和AI子任务训练样本数据量。
在本公开一些实施例中,所述算力资源的属性信息至少包括:算力资源类型和算力资源的算力能力。
根据本公开的第二个方面,还提供了一种算力资源分配装置,包括:
任务拆解模块,用于将接收的AI任务拆解为多个AI子任务,确定每个AI子任务的属性信息;
算力资源获取模块,用于获取处于空闲状态的多个算力资源和每个算力资源的属性信息;
算力计算时间确定模块,用于将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间;和
算力资源分配模块,用于基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果。
根据本公开的第三个方面,还提供了一种电子设备,该电子设备包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述第一个方面任意一项所述的算力资源分配方法。
根据本公开的第四个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一个方面任意一项所述的算力资源分配方法。
根据本公开的第五个方面,还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述第一个方面任意一项所述的算力资源分配方法。
本公开的实施例中提供的算力资源分配方法,通过将AI任务拆解为多个AI子任务,确定每个AI子任务使用当前处于空闲状态的多个算力资源中的每个算力资源进行计算的算力计算时间,并以此进行寻优,得到多个AI子任务的算力资源分配结果,以使多个AI子任务对应的算力计算时间之和最小。通过对算力资源分配,实现了多个AI子任务被执行完毕所花费的时间最短,且对所有处于空闲状态的算力资源进行分配,避免了部分算力资源浪费,进而使得用户等待算力任务执行的时间大大缩短,改善用户体验感。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种算力资源分配系统架构的示意图;
图2示出本公开实施例中一种算力资源分配方法流程示意图;
图3示出本公开一些实施例中预先训练算力计算时间确定模型的过程示意图;
图4示出本公开一些实施例中S208的一种实施过程示意图;
图5示出本公开一些实施例中S208的另一种实施过程示意图;
图6示出本公开具体实例中算力资源调度系统的简易结构示意图;
图7示出本公开具体实例中构建的神经网络模型的结构示意图;
图8示出本公开实施例中一种算力资源分配装置示意图;和
图9示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本公开实施例中算力资源分配方法的示例性应用系统架构示意图。如图1所示,该系统架构可以包括终端设备101、网络102和服务器103。
网络102用以在终端设备101和服务器103之间提供通信链路的介质,可以是有线网络,也可以是无线网络。
可选地,上述的无线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(MetropolitanArea Network,MAN)、广域网(Wide Area Network,WAN)、移动或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper TextMark-up Language,HTML)、可扩展标记语言(Extensible Markup Language,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(SecureSocket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet Protocol Security,IPSec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
终端设备101可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、智能音箱、智能手表、可穿戴设备、增强现实设备、虚拟现实设备等。
可选地,不同的终端设备101中安装的应用程序的客户端是相同的,或基于不同操作系统的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端等。
服务器103可以是提供各种服务的服务器,例如对用户利用终端设备101所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的AI任务计算请求进行处理,并将处理结果反馈给终端设备。
可选地,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
本领域技术人员可以知晓,图1中的终端设备、网络和服务器的数量仅仅是示意性的,根据实际需要,可以具有任意数目的终端设备、网络和服务器。本公开实施例对此不作限定。
在上述系统架构下,本公开实施例中提供了一种算力资源分配方法,该方法可以由任意具备计算处理能力的电子设备执行。
在一些实施例中,本公开实施例中提供的算力资源分配方法可以由上述系统架构的上述系统架构中的服务器执行;在另一些实施例中,本公开实施例中提供的算力资源分配方法可以由上述系统架构中的终端设备和服务器通过交互的方式来实现。
如图2所示,本公开实施例中提供的一种算力资源分配方法,包括如下步骤:
S202,将接收的AI任务拆解为多个AI子任务,确定每个AI子任务的属性信息。
需要说明的是,在将AI任务拆解时,将AI任务拆分为多个可以分配在不同算力节点上单独进行计算的部分,每个部分都被称为一个子任务。
S204,获取处于空闲状态的多个算力资源和每个算力资源的属性信息。
需要说明的是,智算中心汇总大量的AI算力资源,智算中心的算力资源池中有大量的算力资源,并通过虚拟化后可以被灵活调用。获取当前时刻下处于空闲状态的多个算力资源,也就是确定当前时刻下可用的全部算力资源,以供执行AI子任务。
S206,将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间。
S208,基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果。
由上述步骤可以看出,本公开的实施例中提供的算力资源分配方法,通过将AI任务拆解为多个AI子任务,确定每个AI子任务使用当前处于空闲状态的多个算力资源中的每个算力资源进行计算的算力计算时间,并以此进行寻优,得到多个AI子任务的算力资源分配结果,以使多个AI子任务对应的算力计算时间之和最小。通过对算力资源分配,实现了多个AI子任务被执行完毕所花费的时间最短,且对所有处于空闲状态的算力资源进行分配,避免了部分算力资源浪费,进而使得用户等待算力任务执行的时间大大缩短,改善用户体验感。
在本公开的一些实施例中,AI子任务的属性信息,至少包括:AI子任务类型、AI子任务计算数量、AI子任务训练样本类型和AI子任务训练样本数据量。其中,AI子任务类型是指AI子任务的分类,例如可以包括:图像分类,如ResNet50(残差网络,Residual Network)、目标物体检测,如SSD(Single Shot MultiBox Detector)、智能推荐,如DLRM深度学习推荐模型、自然语言处理,如BERT(Bidirectional Encoder Representation fromTransformers)模型、强化机器学习,如Minigo算法、语音识别,如RNN-T模型和图像分割,如U-Net3D神经网络模型等。AI子任务计算数量是指在对子任务进行算力解构后,在一个算力资源节点上的不同块GPU(Graphics Processing Unit,图形处理器)、CPU上计算数量。AI子任务训练样本类型可以包括:数组、图片、音频和视频等。AI子任务训练样本数据量是指执行AI子任务时训练所需要的样本的数据量,为了便于计算,可对数据量进行归一化,例如可以万亿字节(TB,1TB=1024GB)为单位。
在本公开的一些实施例中,算力资源的属性信息至少包括:算力资源类型和算力资源的算力能力。其中,算力资源类型是指算力资源的分类,例如可以包括:GPU、CPU和AI计算芯片等。算力资源的算力能力是指该算力资源能够提供的最大算力,可用算力的度量单位TFLOPS表示,举例说明,例如一台2路Intel Xeon Platinum 8255C CPU@2.50GHz服务器的算力能力为2路×24核心×(2.5×109Hz)×64×10-12=7.68TFLOPS。
在确定好处于空闲状态的多个算力资源和每个算力资源的属性信息之后,需要将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间。相应地,在本公开的一些实施例中,所提供的算力资源分配方法,在将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型之前,还包括:预先训练算力计算时间确定模型。
具体地,如图3所示,为预先训练算力计算时间确定模型的过程,包括如下步骤:
S302,基于获取的历史运算数据,得到多个历史AI子任务的属性信息、每个历史AI子任务使用的算力资源的属性信息和每个历史AI子任务对应的算力计算时间。
需要说明的是,获取智算中心的历史运算数据,以得到多个历史AI子任务在使用不同的算力资源下进行计算的实际算力计算时间。也就是得到了多个历史AI子任务的属性信息、每个历史AI子任务使用的算力资源的属性信息和每个历史AI子任务对应的算力计算时间。
S304,以历史AI子任务的预估算力计算时间为输出,以历史AI子任务的属性信息和历史AI子任务使用的算力资源的属性信息为输入,构建用于预估历史AI子任务使用算力资源进行计算的算力计算时间的神经网络模型。
需要说明的是,构建的神经网络模型是基于输入的历史AI子任务的属性信息和历史AI子任务使用的算力资源的属性信息,进行估算,得到历史AI子任务的预估算力计算时间。具体实施时,可构建全连接神经网络模型,并利用反向传播算法计算得到全连接神经网络连线上的权重参数。
S306,利用历史AI子任务对应的算力计算时间,对神经网络模型进行训练,得到训练好的算力计算时间确定模型。
需要说明的是,利用历史AI子任务对应的算力计算时间,也就是实际运算时的算力计算时间来对神经网络模型进行训练,得到训练好的算力计算时间确定模型,以使得输入AI子任务的属性信息和算力资源的属性信息后,就能够确定该AI子任务使用该算力资源进行计算的算力计算时间。
进一步地,为了保证算力计算时间确定模型的预测准确性,进而提高算力资源分配的合理性,在本公开的一些实施例中,可一直收集智算中心的实际运算数据,不断对算力计算时间确定模型进行训练,以修正权重参数,保证算力计算时间确定模型的准确性。
在本公开的一些实施例中,S208的实施过程如图4所示,包括如下步骤:
S402,基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,得到每个AI子任务对应的算力资源与算力计算时间之间的函数关系。
S404,以算力资源不超出算力能力为约束条件,以多个AI子任务对应的算力计算时间之和最小为目标,进行寻优,确定每个AI子任务所使用的算力资源。
S406,将每个AI子任务所使用的算力资源,作为多个AI子任务的算力资源分配结果。
需要说明的是,在得到每个AI子任务分别使用多个算力资源进行计算的算力计算时间后,能够确定每个AI子任务对应的算力资源与算力计算时间之间的函数关系。举例说明,对于第a个AI子任务而言,能够得到算力资源1到k这k个算力资源与算力计算时间之间的函数关系。并将算力资源不超出算力能力设置为约束条件,也就是AI子任务在使用算力资源时所需的计算能力不超过算力资源的算力能力,将多个AI子任务对应的算力计算时间之和最小设置为寻优目标,进行求解。具体实施时,可基于多次运行仿真来进行求解,通过使用极大值原理法、动态规划法和直接函数寻优法等算法进行求解,得到每个AI子任务所使用的算力资源,以得到多个AI子任务的算力资源分配结果。智算中心按照该分配结果,调度算力资源,以使得每个AI子任务被分配到对应的算力资源节点上执行。
但在寻优求解时,由于不能保证每个算力资源都能不超出算力能力,例如,某个AI子任务在被某一算力资源执行时所需的算力计算时间最短,但该算力资源已超出算力能力,此时,寻优是无法求解的。相应地,在本公开的一些实施例中,S208的实施过程如图5所示,在图4的基础上,还包括如下步骤:
S502,若以算力资源不超出算力能力为约束条件,以多个AI子任务对应的算力计算时间之和最小为目标,进行寻优,无法确定每个AI子任务所使用的算力资源时,利用遍历法,确定每个AI子任务所使用的算力资源,以使多个AI子任务对应的算力计算时间之和最小为目标。
需要说明的是,也就是将所有的算力资源分配可能性都列举出来,并计算每一种分配情况下的多个AI子任务对应的算力计算时间之和,剔除其中存在算力资源超出算力能力的情况,在剩余的多种可能性中,选择多个AI子任务对应的算力计算时间之和最小的一种,以得到多个AI子任务的算力资源分配结果。
为了更好地说明本公开实施例提供的算力资源分配方法,现给出一具体实例进一步解释说明,本具体实例是基于本公开实施例提供的算力资源分配方法,实施的一种智算中心的算力资源调度系统。
考虑智算中心作为数据共享开放平台,由算力资源调度系统中的模型存储模块汇总大量AI训练模型的样本数据、训练参数、泛化能力、使用算力资源消耗时间等参数,任务拆解模块将用户端上传的任务需求进行初步分解,得到其训练样本数据量、任务类型、子任务个数等,迁移模块调度存储模块中既往的相似训练模型,预估本任务使用不同算力资源的计算时间,上传到调度中心中,由调度中心进行全局算力资源的最优分配。
具体地,算力资源调度系统的简易结构如图6所示,包括:
任务拆解模块:用户端向智算中心提出AI任务请求,由任务拆解模块将AI任务任务拆解为可以分配在不同算力节点计算的多个AI子任务,并得到每一部分的任务类型M、子任务计算数量m、训练样本类型N以及训练样本数据量n。
其中,任务类型M可以分为图像分类、目标物体检测、智能推荐、自然语言处理、强化机器学习、语音识别和图像分割等,为了便于后续识别参数,可通过赋值来区分任务类型M所代表的分类。例如:
子任务计算数量m是由任务拆解模块对每一个子任务进行算力解构,按必须在同一节点计算,但可以在不同块GPU、CPU上计算所确定的数量。
训练样本类型N可定义为:
同时得到相应训练样本数据量n,以万亿字节(TB,1TB=1024GB)为单位。
迁移模块:迁移模块中存储所有用户端提交过的已经实际计算完毕的算力模型信息,包括其任务类型M、子任务数量m、训练样本类型N、训练样本数据量n、算力资源类型P、算力能力p、实际计算时间T,模型的参数信息存储在模型存储模块中。
其中,算力资源类型P可定义为:
算力能力p以算力的度量单位TFLOPS表示。
考虑不同任务的实际计算时间T受上述六个因素影响,具体的函数关系依靠由神经网络给出,即通过构造两层神经网络,其中输入层六个神经元、隐藏层八个神经元、输出层一个神经元,如图7所示。
输入当前存储的用户端所有真实计算任务信息,由反向传播算法计算得到图7所示的全连接网络连线上的参数ω,也就能够得相应函数关系f:
T=fω(M,m,N,n,P,p)
由任务拆解模块传来的任务类型M、子任务计算数量m、训练样本类型N、训练样本数据量n,考虑不同的算力资源类型P及算力能力p,输入迁移模块,能够得到预计计算时间T,由不同的P和p计算得到T不同,也就得到了每一个AI子任务选择不同的算力资源P和p与相应预估算力计算时间T之间的关系,可表示为:
T=g(P,p)
并将其输入到调度模块中。
调度模块:算力资源池中包含所有被池化为标准单位的算力资源,设其中共有s个算力资源,第i个算力资源(i=1,2,……,s),有对应于迁移模块中算力资源类型Pi及算力能力pi两项指标;设迁移模块传来y个算力任务及相应的g(P,p)函数关系,则定义第j(j=1,2,……,y)个AI子任务使用第i个算力资源所花费的计算时间(Ti)j为:
(Ti)j=gj(Pi,pi)
则调度中心需要求解的是,在分配的每个算力资源不超出使用能力的情况下,y个算力任务(AI子任务)到s个算力资源之间的全局最优分配,也就是所有算力任务执行完毕所花费的计算时间达到最小。
得到最优分配的结果后,经由调度中心将相应AI子任务分配给算力资源对应的节点进行计算,整合全部AI子任务的计算结果得到AI任务的计算结果,并将AI任务计算所得结果反馈回用户端。
特别地,调度中心对于当前AI任务分配算力资源并完成计算后,记录该AI任务中多个AI子任务的M、m、N、n及所使用的算力资源P和p,以及相应的实际计算时间T等信息作为测试集数据返回给神经网络模型进行训练,以修正权重参数ω。
由上述系统的工作过程可以看出,该系统充分考虑算力资源的最优分配,由迁移模块先预估AI子任务使用不同算力资源的预计计算时间,再由调度中心基于预计计算时间的函数关系,进行算力资源的全局最优分配,降低算力资源闲置,提高计算设备利用率。
需要注意的是,本公开技术方案中对数据的获取、存储、使用、处理等均符合国家法律法规的相关规定。
基于同一发明构思,本公开实施例中还提供了一种算力资源分配装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图8示出本公开实施例中一种算力资源分配装置示意图,如图8所示,该装置包括:
任务拆解模块801,用于将接收的AI任务拆解为多个AI子任务,确定每个AI子任务的属性信息;
算力资源获取模块802,用于获取处于空闲状态的多个算力资源和每个算力资源的属性信息;
算力计算时间确定模块803,用于将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间;和
算力资源分配模块804,用于基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果。
此处需要说明的是,上述任务拆解模块801、算力资源获取模块802、算力计算时间确定模块803和算力资源分配模块804对应于方法实施例中的S202~S208,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述方法实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
在本公开的一些实施例中,提供的算力资源分配装置,还包括:模型预训练模块,用于:预先训练所述算力计算时间确定模型。具体地,模型预训练模块具体用于:基于获取的历史运算数据,得到多个历史AI子任务的属性信息、每个历史AI子任务使用的算力资源的属性信息和每个历史AI子任务对应的算力计算时间;以历史AI子任务的预估算力计算时间为输出,以历史AI子任务的属性信息和历史AI子任务使用的算力资源的属性信息为输入,构建用于预估历史AI子任务使用算力资源进行计算的算力计算时间的神经网络模型;利用历史AI子任务对应的算力计算时间,对神经网络模型进行训练,得到训练好的算力计算时间确定模型。
在本公开的一些实施例中,算力资源分配模块804具体用于:基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,得到每个AI子任务对应的算力资源与算力计算时间之间的函数关系;以算力资源不超出算力能力为约束条件,以多个AI子任务对应的算力计算时间之和最小为目标,进行寻优,确定每个AI子任务所使用的算力资源;将每个AI子任务所使用的算力资源,作为多个AI子任务的算力资源分配结果。
在本公开的一些实施例中,若以算力资源不超出算力能力为约束条件,以多个AI子任务对应的算力计算时间之和最小为目标,进行寻优,无法确定每个AI子任务所使用的算力资源时,算力资源分配模块804具体用于:利用遍历法,确定每个AI子任务所使用的算力资源,以使多个AI子任务对应的算力计算时间之和最小为目标。
在本公开的一些实施例中,AI子任务的属性信息,至少包括:AI子任务类型、AI子任务计算数量、AI子任务训练样本类型和AI子任务训练样本数据量。算力资源的属性信息至少包括:算力资源类型和算力资源的算力能力。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图9来描述根据本公开的这种实施方式的电子设备900。图9显示的电子设备900仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900以通用计算设备的形式表现。电子设备900的组件可以包括但不限于:上述至少一个处理单元910、上述至少一个存储单元920、连接不同系统组件(包括存储单元920和处理单元910)的总线930。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元910执行,使得所述处理单元910执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元910可以执行上述方法实施例的如下步骤:
将接收的AI任务拆解为多个AI子任务,确定每个AI子任务的属性信息;
获取处于空闲状态的多个算力资源和每个算力资源的属性信息;
将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间;
基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果。
存储单元920可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)9201和/或高速缓存存储单元9202,还可以进一步包括只读存储单元(ROM)9203。
存储单元920还可以包括具有一组(至少一个)程序模块9205的程序/实用工具9204,这样的程序模块9205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线930可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备900也可以与一个或多个外部设备940(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备900交互的设备通信,和/或与使得该电子设备900能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口950进行。并且,电子设备900还可以通过网络适配器960与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器960通过总线930与电子设备900的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备900使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机程序产品,该计算机程序产品包括:计算机程序,所述计算机程序被处理器执行时实现上述算力资源分配方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种算力资源分配方法,其特征在于,包括:
将接收的AI任务拆解为多个AI子任务,确定每个AI子任务的属性信息;
获取处于空闲状态的多个算力资源和每个算力资源的属性信息;
将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间;
基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果。
2.根据权利要求1所述的算力资源分配方法,其特征在于,还包括:预先训练所述算力计算时间确定模型。
3.根据权利要求2所述的算力资源分配方法,其特征在于,预先训练所述算力计算时间确定模型,包括:
基于获取的历史运算数据,得到多个历史AI子任务的属性信息、每个历史AI子任务使用的算力资源的属性信息和每个历史AI子任务对应的算力计算时间;
以历史AI子任务的预估算力计算时间为输出,以历史AI子任务的属性信息和历史AI子任务使用的算力资源的属性信息为输入,构建用于预估历史AI子任务使用算力资源进行计算的算力计算时间的神经网络模型;
利用历史AI子任务对应的算力计算时间,对所述神经网络模型进行训练,得到训练好的算力计算时间确定模型。
4.根据权利要求1所述的算力资源分配方法,其特征在于,基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果,包括:
基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,得到每个AI子任务对应的算力资源与算力计算时间之间的函数关系;
以算力资源不超出算力能力为约束条件,以多个AI子任务对应的算力计算时间之和最小为目标,进行寻优,确定每个AI子任务所使用的算力资源;
将每个AI子任务所使用的算力资源,作为多个AI子任务的算力资源分配结果。
5.根据权利要求4所述的算力资源分配方法,其特征在于,若以算力资源不超出算力能力为约束条件,以多个AI子任务对应的算力计算时间之和最小为目标,进行寻优,无法确定每个AI子任务所使用的算力资源,还包括:
利用遍历法,确定每个AI子任务所使用的算力资源,以使多个AI子任务对应的算力计算时间之和最小为目标。
6.根据权利要求1所述的算力资源分配方法,其特征在于,所述AI子任务的属性信息,至少包括:AI子任务类型、AI子任务计算数量、AI子任务训练样本类型和AI子任务训练样本数据量。
7.根据权利要求1所述的算力资源分配方法,其特征在于,所述算力资源的属性信息至少包括:算力资源类型和算力资源的算力能力。
8.一种算力资源分配装置,其特征在于,包括:
任务拆解模块,用于将接收的AI任务拆解为多个AI子任务,确定每个AI子任务的属性信息;
算力资源获取模块,用于获取处于空闲状态的多个算力资源和每个算力资源的属性信息;
算力计算时间确定模块,用于将多个AI子任务的属性信息和多个算力资源的属性信息输入预先训练好的算力计算时间确定模型,输出每个AI子任务分别使用多个算力资源进行计算的算力计算时间;和
算力资源分配模块,用于基于每个AI子任务分别使用多个算力资源进行计算的算力计算时间,以多个AI子任务对应的算力计算时间之和最小为目标进行寻优,得到多个AI子任务的算力资源分配结果。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的算力资源分配方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的算力资源分配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310913291.2A CN116909748A (zh) | 2023-07-24 | 2023-07-24 | 算力资源分配方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310913291.2A CN116909748A (zh) | 2023-07-24 | 2023-07-24 | 算力资源分配方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116909748A true CN116909748A (zh) | 2023-10-20 |
Family
ID=88364477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310913291.2A Pending CN116909748A (zh) | 2023-07-24 | 2023-07-24 | 算力资源分配方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116909748A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117114091A (zh) * | 2023-10-25 | 2023-11-24 | 深圳开鸿数字产业发展有限公司 | 基于联邦学习的计算图处理方法、计算机设备和存储介质 |
-
2023
- 2023-07-24 CN CN202310913291.2A patent/CN116909748A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117114091A (zh) * | 2023-10-25 | 2023-11-24 | 深圳开鸿数字产业发展有限公司 | 基于联邦学习的计算图处理方法、计算机设备和存储介质 |
CN117114091B (zh) * | 2023-10-25 | 2024-03-05 | 深圳开鸿数字产业发展有限公司 | 基于联邦学习的计算图处理方法、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210295161A1 (en) | Training neural networks represented as computational graphs | |
Abd Elaziz et al. | Advanced optimization technique for scheduling IoT tasks in cloud-fog computing environments | |
US11256548B2 (en) | Systems and methods for cloud computing data processing | |
JP7087079B2 (ja) | 深層学習アプリケーションのための堅牢な勾配重み圧縮方式 | |
US11521067B2 (en) | Decentralized distributed deep learning | |
US11074107B1 (en) | Data processing system and method for managing AI solutions development lifecycle | |
US11488064B2 (en) | Machine learning model for micro-service compliance requirements | |
US11429434B2 (en) | Elastic execution of machine learning workloads using application based profiling | |
CN107885762A (zh) | 智能大数据系统、提供智能大数据服务的方法和设备 | |
CN110083455B (zh) | 图计算处理方法、装置、介质及电子设备 | |
CN103093034B (zh) | 基于云计算的产品协同设计方法 | |
US20210174189A1 (en) | Optimization Framework for Real-Time Rendering of Media Using Machine Learning Techniques | |
CN114915629A (zh) | 信息处理方法、装置、系统、电子设备及存储介质 | |
CN116909748A (zh) | 算力资源分配方法、装置、电子设备及存储介质 | |
CN114118433A (zh) | 一种设备的配置参数的推荐方法及装置 | |
CN115292046A (zh) | 算力分配方法、装置、存储介质及电子设备 | |
Falah et al. | Comparison of cloud computing providers for development of big data and internet of things application | |
WO2022022571A1 (en) | Resource allocation for tuning hyperparameters of large-scale deep learning workloads | |
CN113867950A (zh) | 一种统一异构计算系统,一种ai加速平台 | |
CN110826706B (zh) | 用于神经网络的数据处理方法和装置 | |
Fiaidhi et al. | Empowering extreme automation via zero-touch operations and GPU parallelization | |
US20210406689A1 (en) | Random Action Replay for Reinforcement Learning | |
CN111338816B (zh) | 基于神经网络的指令交互方法、系统、设备及存储介质 | |
US20230376728A1 (en) | Proxy systems and methods for multiprocessing architectures | |
WO2024046463A1 (zh) | 模型构建方法、装置、平台、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |