CN117271098A - 一种ai模型计算核调度方法、装置、设备及存储介质 - Google Patents

一种ai模型计算核调度方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117271098A
CN117271098A CN202311550267.3A CN202311550267A CN117271098A CN 117271098 A CN117271098 A CN 117271098A CN 202311550267 A CN202311550267 A CN 202311550267A CN 117271098 A CN117271098 A CN 117271098A
Authority
CN
China
Prior art keywords
operator
model
core
scheduling
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311550267.3A
Other languages
English (en)
Other versions
CN117271098B (zh
Inventor
韩杨杨
王凤明
李翔
张亚林
朱蒋俊
张驭洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Suiyuan Intelligent Technology Co ltd
Original Assignee
Beijing Suiyuan Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Suiyuan Intelligent Technology Co ltd filed Critical Beijing Suiyuan Intelligent Technology Co ltd
Priority to CN202311550267.3A priority Critical patent/CN117271098B/zh
Publication of CN117271098A publication Critical patent/CN117271098A/zh
Application granted granted Critical
Publication of CN117271098B publication Critical patent/CN117271098B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种AI模型计算核调度方法、装置、设备及存储介质,包括:获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的备选实现方式;根据每个算子对应的备选实现方式生成多个计算核拓扑图;依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法依据当前拓扑图在不同核任务调度策略下所需执行时间,确定与当前拓扑图匹配的备选调度策略;对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与AI模型匹配的目标调度策略。本发明实施例的技术方案可以生成kernel级全局视角的调度策略,提高硬件加速卡资源的利用率以及AI模型的执行效率。

Description

一种AI模型计算核调度方法、装置、设备及存储介质
技术领域
本发明涉及计算机技术领域,尤其涉及一种AI模型计算核调度方法、装置、设备及存储介质。
背景技术
人工智能(Artificial Intelligence,AI)模型之所以能够在硬件加速设备上快速执行,调度系统起到了至关重要的作用。目前的调度系统由一系列的调度策略组成,包含:模型图分析出的算子间并行关系、算子实现选择出的算子实现方式、算子内部计算核kernel 之间的并行关系等。也即,AI模型对应的调度系统是由多层级选择策略构成的。
但是,现有的AI模型在运行时,通常是预先单独选择每个层级的调度策略,各层级的调度策略处于隔离状态,并未对调度系统进行全局统筹。由此,导致AI模型整体的调度系统执行效率较低,尤其是在推理场景中,小算子较多,由于未综合利用各层级并行度,计算核时密时疏导致加速卡资源利用率较低。
发明内容
本发明提供了一种AI模型计算核调度方法、装置、设备及存储介质,可以生成kernel级全局视角的调度策略,提高硬件加速卡资源的利用率以及AI模型的执行效率。
根据本发明的一方面,提供了一种AI模型计算核调度方法,所述方法包括:
获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式;
根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图;
在所述多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略;
对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与所述AI模型匹配的目标调度策略;
其中,所述预先训练好的算子选择模型,是由多个算子在不同输入数据以及不同算子实现方式下的性能数据集,对机器学习模型训练得到。
根据本发明的另一方面,提供了一种AI模型计算核调度装置,所述装置包括:
算子实现选择模块,用于获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式;
拓扑图生成模块,用于根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图;
备选策略确定模块,用于在所述多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略;
目标策略确定模块,用于对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与所述AI模型匹配的目标调度策略;
其中,所述预先训练好的算子选择模型,是由多个算子在不同输入数据以及不同算子实现方式下的性能数据集,对机器学习模型训练得到。
根据本发明的另一方面,提供了一种电子设备,所述设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的AI模型计算核调度方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的AI模型计算核调度方法。
根据本发明的另一方面,提供了一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序在被处理器执行时实现本发明任一实施例所述的AI模型计算核调度方法。
本发明实施例提供的技术方案,通过获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式,根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图,在多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略,对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与AI模型匹配的目标调度策略的技术手段,可以生成kernel级全局视角的调度策略,提高硬件加速卡资源的利用率以及AI模型的执行效率。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是根据本发明实施例提供的一种AI模型计算核调度方法的流程图;
图1b是根据本发明实施例提供的一种AI模型对应的计算图;
图1c是根据本发明实施例提供的一种计算图在算子备选实现方式下对应的实现方式选择图;
图1d是根据本发明实施例提供的一种计算图在特定备选实现方式下对应的计算核拓扑图;
图1e是根据本发明实施例提供的一种计算图对应的核任务调度策略示意图;
图2a是根据本发明实施例提供的另一种AI模型计算核调度方法的流程图;
图2b是根据本发明实施例提供的一种机器学习模型结构示意图;
图3是根据本发明实施例提供的另一种AI模型计算核调度方法的流程图;
图4是根据本发明实施例提供的一种AI模型计算核调度装置的结构示意图;
图5是实现本发明实施例的AI模型计算核调度方法的电子设备结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
图1a为本发明实施例一提供的一种AI模型计算核调度方法的流程图,本实施例可适用于对AI模型中的计算核任务进行调度情况,该方法可以由AI模型计算核调度装置来执行,该AI模型计算核调度装置可以采用硬件和/或软件的形式实现,该AI模型计算核调度装置可配置于电子设备中。如图1a所示,该方法包括:
步骤110、获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式。
在本实施例中,具体的,可以首先获取AI模型中的计算块(Block),然后按照AI模型中各个计算节点(Node)之间的依赖关系以及计算类型,将AI模型中的计算块映射为节点图,并对所述节点图进行分析和优化处理(例如去冗余、算子变换、常量折叠等处理),得到AI模型对应的更精简的、更贴近硬件设计的计算图。
在一个具体的实施方式中,图1b可以为本实施例中的一种AI模型对应的计算图(Graph-OP),如图1b所示,所述计算图中可以包括多个算子(Operator,OP),例如Dot、Add以及Batch dot等。
在此步骤中,获取到AI模型对应的计算图后,可以将所述计算图中包括的各个算子依次输入至预先训练好的算子选择模型,通过所述算子选择模型依次输出各个算子对应的性能最佳的多个备选实现方式。
其中,所述预先训练好的算子选择模型,是由多个算子在不同输入数据以及不同算子实现方式下的性能数据集,对机器学习模型训练得到。可选的,将计算图中包括的各个算子依次输入至所述算子选择模型后,所述算子选择模型可以输出每个算子对应的性能最佳的3个备选实现方式,top1、top2、top3。
具体的,所述备选实现方式的数量可以根据实际需求进行调整,本实施例对此并不进行限制。
步骤120、根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图。
在本实施例中,可以根据每个算子对应的当前备选实现方式,确定当前备选实现方式对应的计算核,并生成计算图在当前备选实现方式下对应的计算核拓扑图,然后采用相同方式生成计算图在其他备选实现方式下对应的其他计算核拓扑图。
在一个具体的实施例中,以图1b的计算图为例,假设该计算图中Dot、Add、Batchdot算子对应的当前备选实现方式,均为所述算子选择模型得到的各算子性能top1,标记为Dot-top1、Add-top1、Batch dot-top1,则可以先根据该计算图中每个算子对应的当前备选实现方式,生成计算图在当前备选实现方式下对应的实现方式选择图(Graph-Select OP),如图1c所示。然后根据实现方式选择图中当前备选实现方式对应的计算核,生成当前备选实现方式下对应的计算核拓扑图。
在本实施例的一个实施方式中,假设图1c中第一个Dot的备选实现方式(Dot-top1)对应计算核为1.1、1.2;第二个Dot的备选实现方式(Dot-top1)对应计算核为2.1、2.2;第一个Add的备选实现方式(Add-top1)对应计算核为3.1;第二个Add的备选实现方式(Add-top1)对应计算核为4.1;Batch dot的备选实现方式(Batch dot-top1)对应计算核为5.1、5.2、5.3,则可以生成如图1d所示的计算核拓扑图(Graph-kernel)。
步骤130、在所述多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略。
在本实施例中,具体的,可以先获取当前拓扑图中计算核之间的依赖关系,将所述依赖关系保存至预设列表list中,并按照各计算核与模型输入(input)之间的距离,将各计算核按照距离由近到远进行排序;然后采用递归检索算法,根据依赖关系以及排序结果,获取当前拓扑图在不同核任务调度策略(kernel schedule)下的实际执行耗时(kernelgraph cost time),最后选择执行耗时最小时对应的核任务调度策略,作为当前拓扑图匹配的备选调度策略。
其中,所述核任务调度策略可以通过下发stage和并行分支group来表示。
步骤140、对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与所述AI模型匹配的目标调度策略。
在本实施例中,通过步骤130确定出每个计算核拓扑图对应的备选调度策略后,可以对比各备选调度策略分别对应的执行时间,然后根据对比结果确定与AI模型匹配的目标调度策略,以及与所述目标调度策略匹配的目标算子实现方式。
在一个具体的实施例中,以图1b所示的计算图为例,图1e可以为该计算图对应的核任务调度策略示意图(Graph-kernel-schedule),该示意图中标注了计算图最终选择的调度策略,即每个计算核的最佳下发时间和方式,以使得计算图整体性能最优,如图中采用s1g1、s1g2、s1g3、s1g4、s2g1、s2g2、s3g1、s3g2、s3g3来标识对应位置计算核的调度策略,s1g1表示计算核1.1在第1个stage下发,且并行分支group为1,与其并行下发的计算核有1.2、2.1、2.2。
本发明实施例提供的技术方案,通过获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式,根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图,在多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略,对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与AI模型匹配的目标调度策略的技术手段,可以将计算图中算子之间、算子实现以及算子内计算核之间等多层级关系,统一映射在kernel级拓扑图中,并利用kernel级拓扑图中节点间的依赖关系,采用递归搜索方式生成kernel级全局视角的调度策略,可以打破不同层级之间的调度壁垒,提高硬件加速卡资源的利用率以及AI模型的执行效率。
图2a为本发明实施例二提供的一种AI模型计算核调度方法的流程图,本实施例是对上述实施例的进一步细化。如图2a所示,该方法包括:
步骤210、在算子库中获取每个算子对应的多个候选算子实现方式,确定每个算子在不同输入数据以及不同候选算子实现方式下的执行耗时。
在此步骤中,具体的,可以先在算子库中获取多个算子,为每个算子对应的各候选算子实现方式进行编号,然后随机生成预设数量的输入数据,将生成的批量输入数据,依次输入至各算子对应的候选算子实现方式中,并根据各候选算子实现方式的执行结果,记录不同算子类型、输入输出shape、输入输出IO、数据类型、计算Flops、候选算子实现方式编号以及执行耗时之间的映射关系。
步骤220、根据每个算子在不同输入数据以及不同候选算子实现方式下的执行耗时,确定每个算子在不同输入数据下的最优算子实现方式。
在此步骤中,可以根据上述映射关系,获取特定算子在特定输入数据以及不同候选算子实现方式下的执行耗时,然后将执行耗时最小的候选算子实现方式,作为该算子在该输入数据下对应的最优算子实现方式。
步骤230、根据每个算子在不同输入数据下的最优算子实现方式,生成样本集,并使用所述样本集对机器学习模型进行训练,得到算子选择模型。
在本实施例的一个实施方式中,使用所述样本集对机器学习模型进行训练,得到算子选择模型,包括:对所述样本集进行清洗,并对清洗后的样本集进行预处理;将预处理后的样本集作为训练集,并使用所述训练集对机器学习模型进行迭代训练,得到所述算子选择模型。
在一个具体的实施例中,样本集清洗过程可以包括去重、特征缺失处理以及特征数字化处理(例如,将数据类型由“FP16”转换为2这种数字表示,含义为FP16占用2字节)等。
在另一个具体的实施例中,样本集预处理过程可以包括数据归一化处理、数据标签编码(例如对数据集对应的算子实现方式编号进行one-hot编码)处理,以及数据标签映射处理(例如将数据集对应的输入与标签按照映射对存储至json文件中)等。
在本实施例中,可选的,图2b可以为本实施例中的一种机器学习模型结构示意图,如图2b所示,该机器学习模型可以包括Dot层、Relu层、Dropout层、Add层、LayerNorm层以及softmax层等。具体的,所述机器学习模型对应的基础模型块数量为N = 2,交叉熵函数为loss function,优化器为Adam,训练迭代次数为1000。
步骤240、获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式。
步骤250、根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图。
步骤260、在所述多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略。
步骤270、对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与所述AI模型匹配的目标调度策略。
本发明实施例提供的技术方案,根据每个算子在不同输入数据以及不同候选算子实现方式下的执行耗时生成样本集,使用样本集对机器学习模型进行训练得到算子选择模型;获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式,根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图,在多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略,对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与AI模型匹配的目标调度策略的技术手段,可以生成kernel级全局视角的调度策略,提高硬件加速卡资源的利用率以及AI模型的执行效率。
图3为本发明实施例三提供的另一种AI模型计算核调度方法的流程图,本实施例是对上述实施例的进一步细化。如图3所示,该方法包括:
步骤310、获取AI模型对应的计算图。
步骤320、在所述计算图的多个算子中依次获取一个算子作为当前算子,根据所述当前算子的算子类型,在算子库中确定与所述当前算子对应的算子实现方式。
步骤330、如果所述当前算子对应多个算子实现方式,则利用预先训练好的算子选择模型,根据当前算子的输入数据形式,获取与所述当前算子对应的多个备选实现方式。
步骤340、判断是否完成对全部算子的处理,若是,执行步骤350,若否,返回执行步骤320中在所述计算图的多个算子中依次获取一个算子作为当前算子的操作,直至完成对全部算子的处理。
步骤350、获取每个算子在不同备选实现方式下的计算核,根据各所述计算核之间的依赖关系,以及算子之间的依赖关系,生成每个算子在不同备选实现方式下对应的计算核拓扑图。
在此步骤中,具体的,可以根据各所述计算核之间的依赖关系以及算子之间的依赖关系,生成每个算子在不同备选实现方式下对应的初始拓扑图,然后根据计算核之间的同步关系(kernel sync)以及等待关系(kernel wait),对初始拓扑图中缺失的算子依赖关系进行补充,并删除冗余依赖关系,得到最终的计算核拓扑图。所述计算核拓扑图用于表达计算图中算子之间以及算子内各计算核节点的依赖关系。
步骤360、在多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略。
步骤370、对全部的计算核拓扑图进行处理后,获取每个备选调度策略对应的执行耗时,将执行耗时最小时对应的备选调度策略,作为与所述AI模型匹配的目标调度策略。
本发明实施例提供的技术方案,通过获取AI模型对应的计算图,在计算图的多个算子中依次获取一个算子作为当前算子,根据当前算子的算子类型,在算子库中确定与当前算子对应的算子实现方式,如果当前算子对应多个算子实现方式,则利用预先训练好的算子选择模型根据当前算子的输入数据形式,获取与当前算子对应的多个备选实现方式,判断是否完成对全部算子的处理,若是,获取每个算子在不同备选实现方式下的计算核,根据各计算核之间的依赖关系以及算子之间的依赖关系,生成每个算子在不同备选实现方式下对应的计算核拓扑图,在多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略,对全部的计算核拓扑图进行处理后,获取每个备选调度策略对应的执行耗时,将执行耗时最小时对应的备选调度策略,作为与AI模型匹配的目标调度策略的技术手段,可以生成kernel级全局视角的调度策略,提高硬件加速卡资源的利用率以及AI模型的执行效率。
图4为本发明实施例四提供的一种AI模型计算核调度装置的结构示意图,该装置包括:算子实现选择模块410、拓扑图生成模块420、备选策略确定模块430和目标策略确定模块440。
其中,算子实现选择模块410,用于获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式;
拓扑图生成模块420,用于根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图;
备选策略确定模块430,用于在所述多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略;
目标策略确定模块440,用于对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与所述AI模型匹配的目标调度策略;
其中,所述预先训练好的算子选择模型,是由多个算子在不同输入数据以及不同算子实现方式下的性能数据集,对机器学习模型训练得到。
本发明实施例提供的技术方案,通过获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式,根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图,在多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略,对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与AI模型匹配的目标调度策略的技术手段,可以生成kernel级全局视角的调度策略,提高硬件加速卡资源的利用率以及AI模型的执行效率。
在上述实施例的基础上,所述装置还包括:
样本集构建模块,用于在算子库中获取每个算子对应的多个候选算子实现方式,确定每个算子在不同输入数据以及不同候选算子实现方式下的执行耗时,根据每个算子在不同输入数据以及不同候选算子实现方式下的执行耗时,确定每个算子在不同输入数据下的最优算子实现方式,根据每个算子在不同输入数据下的最优算子实现方式,生成样本集;
模型训练模块,用于使用所述样本集对机器学习模型进行训练,得到所述算子选择模型。
所述模型训练模块包括:
样本集处理单元,用于对所述样本集进行清洗,并对清洗后的样本集进行预处理;
迭代训练单元,用于将预处理后的样本集作为训练集,并使用所述训练集对机器学习模型进行迭代训练,得到所述算子选择模型。
算子实现选择模块410包括:
算子获取单元,用于在所述计算图的多个算子中依次获取一个算子作为当前算子,根据所述当前算子的算子类型,在算子库中确定与所述当前算子对应的算子实现方式;
备选实现方式获取单元,用于如果所述当前算子对应多个算子实现方式,则利用所述算子选择模型,根据算子的输入数据形式,获取与所述当前算子对应的多个备选实现方式;
全部算子处理单元,用于返回执行在所述计算图的多个算子中依次获取一个算子作为当前算子的操作,直至完成对全部算子的处理。
拓扑图生成模块420包括:
计算核获取单元,用于获取每个算子在不同备选实现方式下的计算核,根据各所述计算核之间的依赖关系,以及算子之间的依赖关系,生成每个算子在不同备选实现方式下对应的计算核拓扑图。
目标策略确定模块440包括:
执行耗时获取单元,用于获取每个备选调度策略对应的执行耗时,将执行耗时最小时对应的备选调度策略,作为与所述AI模型匹配的目标调度策略。
上述装置可执行本发明前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本发明实施例中详尽描述的技术细节,可参见本发明前述所有实施例所提供的方法。
图5示出了可以用来实施本发明的实施例的电子设备10的结构示意图。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图5所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如AI模型计算核调度方法。
在一些实施例中,AI模型计算核调度方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的AI模型计算核调度方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行AI模型计算核调度方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (10)

1.一种AI模型计算核调度方法,其特征在于,所述方法包括:
获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式;
根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图;
在所述多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略;
对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与所述AI模型匹配的目标调度策略;
其中,所述预先训练好的算子选择模型,是由多个算子在不同输入数据以及不同算子实现方式下的性能数据集,对机器学习模型训练得到。
2.根据权利要求1所述的方法,其特征在于,在获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式之前,还包括:
在算子库中获取每个算子对应的多个候选算子实现方式,确定每个算子在不同输入数据以及不同候选算子实现方式下的执行耗时;
根据每个算子在不同输入数据以及不同候选算子实现方式下的执行耗时,确定每个算子在不同输入数据下的最优算子实现方式;
根据每个算子在不同输入数据下的最优算子实现方式,生成样本集,并使用所述样本集对机器学习模型进行训练,得到所述算子选择模型。
3.根据权利要求2所述的方法,其特征在于,使用所述样本集对机器学习模型进行训练,得到所述算子选择模型,包括:
对所述样本集进行清洗,并对清洗后的样本集进行预处理;
将预处理后的样本集作为训练集,并使用所述训练集对机器学习模型进行迭代训练,得到所述算子选择模型。
4.根据权利要求1所述的方法,其特征在于,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式,包括:
在所述计算图的多个算子中依次获取一个算子作为当前算子,根据所述当前算子的算子类型,在算子库中确定与所述当前算子对应的算子实现方式;
如果所述当前算子对应多个算子实现方式,则利用所述算子选择模型,根据算子的输入数据形式,获取与所述当前算子对应的多个备选实现方式;
返回执行在所述计算图的多个算子中依次获取一个算子作为当前算子的操作,直至完成对全部算子的处理。
5.根据权利要求1所述的方法,其特征在于,根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图,包括:
获取每个算子在不同备选实现方式下的计算核;
根据各所述计算核之间的依赖关系,以及算子之间的依赖关系,生成每个算子在不同备选实现方式下对应的计算核拓扑图。
6.根据权利要求1所述的方法,其特征在于,对比各计算核拓扑图匹配的备选调度策略,确定与所述AI模型匹配的目标调度策略,包括:
获取每个备选调度策略对应的执行耗时,将执行耗时最小时对应的备选调度策略,作为与所述AI模型匹配的目标调度策略。
7.一种AI模型计算核调度装置,其特征在于,所述装置包括:
算子实现选择模块,用于获取AI模型对应的计算图,利用预先训练好的算子选择模型,确定计算图中每个算子对应的多个备选实现方式;
拓扑图生成模块,用于根据每个算子对应的多个备选实现方式,生成多个计算核拓扑图;
备选策略确定模块,用于在所述多个计算核拓扑图中依次获取一个计算核拓扑图作为当前拓扑图,采用递归检索算法,依据当前拓扑图在不同核任务调度策略下所需的执行时间,确定与当前拓扑图匹配的备选调度策略;
目标策略确定模块,用于对全部的计算核拓扑图进行处理后,对比各计算核拓扑图匹配的备选调度策略,确定与所述AI模型匹配的目标调度策略;
其中,所述预先训练好的算子选择模型,是由多个算子在不同输入数据以及不同算子实现方式下的性能数据集,对机器学习模型训练得到。
8.一种电子设备,其特征在于,所述设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的AI模型计算核调度方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-6中任一项所述的AI模型计算核调度方法。
10.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-6中任一项所述的AI模型计算核调度方法。
CN202311550267.3A 2023-11-21 2023-11-21 一种ai模型计算核调度方法、装置、设备及存储介质 Active CN117271098B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311550267.3A CN117271098B (zh) 2023-11-21 2023-11-21 一种ai模型计算核调度方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311550267.3A CN117271098B (zh) 2023-11-21 2023-11-21 一种ai模型计算核调度方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN117271098A true CN117271098A (zh) 2023-12-22
CN117271098B CN117271098B (zh) 2024-02-13

Family

ID=89209108

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311550267.3A Active CN117271098B (zh) 2023-11-21 2023-11-21 一种ai模型计算核调度方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117271098B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130066911A1 (en) * 2011-09-09 2013-03-14 Gil Tzadikevitch Content item reconciliation
US20200409702A1 (en) * 2019-06-28 2020-12-31 Aras Corporation Calculation engine for performing calculations based on dependencies in a self-describing data system
CN113760380A (zh) * 2020-05-27 2021-12-07 杭州海康威视数字技术股份有限公司 网络模型的运行代码的确定方法、装置、设备及存储介质
CN113822173A (zh) * 2021-09-01 2021-12-21 杭州电子科技大学 基于节点归并和路径预测的行人属性识别训练加速方法
CN114580607A (zh) * 2020-12-02 2022-06-03 中科寒武纪科技股份有限公司 数据处理方法、装置和存储介质
CN114707651A (zh) * 2022-04-01 2022-07-05 上海燧原科技有限公司 一种规约运算的拓扑选择方法、装置、设备及介质
US20220374713A1 (en) * 2021-10-28 2022-11-24 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus for performing distributed training on deep learning model, device and storage medium
CN116166405A (zh) * 2023-04-21 2023-05-26 北京燧原智能科技有限公司 异构场景下的神经网络任务调度策略确定方法及装置
US20230214661A1 (en) * 2022-01-03 2023-07-06 The Trustees Of The University Of Pennsylvania Computer systems and methods for learning operators
CN117032938A (zh) * 2023-10-08 2023-11-10 北京燧原智能科技有限公司 一种算子的并行调度方法、装置、电子设备及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130066911A1 (en) * 2011-09-09 2013-03-14 Gil Tzadikevitch Content item reconciliation
US20200409702A1 (en) * 2019-06-28 2020-12-31 Aras Corporation Calculation engine for performing calculations based on dependencies in a self-describing data system
CN113760380A (zh) * 2020-05-27 2021-12-07 杭州海康威视数字技术股份有限公司 网络模型的运行代码的确定方法、装置、设备及存储介质
CN114580607A (zh) * 2020-12-02 2022-06-03 中科寒武纪科技股份有限公司 数据处理方法、装置和存储介质
CN113822173A (zh) * 2021-09-01 2021-12-21 杭州电子科技大学 基于节点归并和路径预测的行人属性识别训练加速方法
US20220374713A1 (en) * 2021-10-28 2022-11-24 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus for performing distributed training on deep learning model, device and storage medium
US20230214661A1 (en) * 2022-01-03 2023-07-06 The Trustees Of The University Of Pennsylvania Computer systems and methods for learning operators
CN114707651A (zh) * 2022-04-01 2022-07-05 上海燧原科技有限公司 一种规约运算的拓扑选择方法、装置、设备及介质
CN116166405A (zh) * 2023-04-21 2023-05-26 北京燧原智能科技有限公司 异构场景下的神经网络任务调度策略确定方法及装置
CN117032938A (zh) * 2023-10-08 2023-11-10 北京燧原智能科技有限公司 一种算子的并行调度方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN117271098B (zh) 2024-02-13

Similar Documents

Publication Publication Date Title
CN116166405B (zh) 异构场景下的神经网络任务调度策略确定方法及装置
CN114580263A (zh) 基于知识图谱的信息系统故障预测方法及相关设备
CN109902859B (zh) 基于大数据和机器学习算法的排队高峰时段预估方法
CN117032938B (zh) 一种算子的并行调度方法、装置、电子设备及存储介质
CN115202847A (zh) 任务的调度方法和装置
CN117971487A (zh) 一种高性能算子生成方法、装置、设备及存储介质
CN114581261A (zh) 基于快速图计算的故障诊断方法、系统、设备及存储介质
CN117994021A (zh) 一种资产核销方式的辅助配置方法、装置、设备及介质
CN113657468A (zh) 预训练模型的生成方法、装置、电子设备和存储介质
CN113590774A (zh) 事件查询方法、装置以及存储介质
CN115495248B (zh) 一种推理卡的内存分配方法、装置、电子设备及存储介质
CN117455067A (zh) 一种电量消耗预测方法、装置、电子设备及存储介质
CN117271098B (zh) 一种ai模型计算核调度方法、装置、设备及存储介质
CN114418063A (zh) 神经网络模型中网络层的分配方法与装置
CN114329231A (zh) 对象特征处理方法、装置、电子设备及存储介质
CN113468604A (zh) 基于人工智能的大数据隐私信息解析方法及系统
CN116610453A (zh) 一种任务分配方法、装置、电子设备及存储介质
CN117687993A (zh) 一种数据迁移方法、装置、设备以及存储介质
CN114615144B (zh) 网络优化方法及系统
CN115131453B (zh) 颜色填充模型训练、颜色填充方法及装置、电子设备
CN118100151A (zh) 一种电网负荷预测方法、装置、设备及存储介质
CN116933896A (zh) 一种超参数确定及语义转换方法、装置、设备及介质
CN116700996A (zh) 一种神经网络的内存分配方法、装置、设备及介质
CN117194018A (zh) 一种多核多芯片环境下系统控温算法的处理方法及装置
CN118747516A (zh) 模型训练方法、装置、电子设备、存储介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant