CN116932092A - 一种算子调用代码自动生成的方法、装置、介质及设备 - Google Patents
一种算子调用代码自动生成的方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN116932092A CN116932092A CN202311202669.4A CN202311202669A CN116932092A CN 116932092 A CN116932092 A CN 116932092A CN 202311202669 A CN202311202669 A CN 202311202669A CN 116932092 A CN116932092 A CN 116932092A
- Authority
- CN
- China
- Prior art keywords
- operator
- calling
- code
- statement
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000006870 function Effects 0.000 claims abstract description 43
- 238000004364 calculation method Methods 0.000 claims abstract description 37
- 238000013507 mapping Methods 0.000 claims abstract description 25
- 238000013135 deep learning Methods 0.000 claims abstract description 18
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 12
- 238000003860 storage Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 8
- 230000003068 static effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44505—Configuring for program initiating, e.g. using registry, configuration files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/36—Software reuse
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Stored Programmes (AREA)
Abstract
本说明书公开了一种算子调用代码自动生成的方法、装置、介质及设备。所述方法包括:获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图;根据算子库基本信息生成算子调用代码的代码头;对计算图进行解析,确定计算图中的各前端算子;针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句;根据代码头、声明语句、调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码;根据每个后端算子的调用代码调用各后端算子,以通过各后端算子执行计算任务。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种算子调用代码自动生成的方法、装置、介质及设备。
背景技术
算子是深度学习框架的基本组件,一般AI模型由若干个计算模块组合而成,比如全连接层Dense、卷积层Conv、激活函数Relu,计算模块的实现是通过调用封装好的后端算子来完成的。由于计算模块的数据处理对象一般为张量(Tensor),而不同的后端硬件平台对Tensor的存储、处理和计算方式有所不同,因此不同的后端硬件平台会对同一个算子有不同的实现细节,暴露出来的算子调用接口也有所不同。
要想实现对特定后端硬件平台上的算子的调用,需要根据其格式要求,编写算子调用代码。现有的框架下,需要根据算子调用需要的所有信息为每一种算子编写一个算子调用代码,进而完成对底层算子调用接口的调用。
然而,目前在深度学习框架对新的硬件平台进行适配的过程中,由于后端算子的实现方式发生了改变,需要开发人员重新编写新的算子调用代码来实现对后端算子的调用,其编写过程较为复杂,这不但会耗费大量的时间,并且造成了人力资源的严重浪费。
因此,如何提高算子调用代码的生成效率,减少资源的浪费,是一个亟待解决的问题。
发明内容
本说明书提供一种算子调用代码自动生成的方法、装置、介质及设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种算子调用代码自动生成的方法,包括:
获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图;
根据所述算子库基本信息生成算子调用代码的代码头,所述代码头用于引入所述硬件平台的算子库以及依赖库;
对所述计算图进行解析,确定所述计算图中的各前端算子;
针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句;
根据所述代码头、所述声明语句、所述调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码;
根据每个后端算子的调用代码调用所述后端硬件平台的各后端算子,以通过所述各后端算子执行计算任务。
可选地,所述算子库基本信息包括:所述后端硬件平台算子库的头文件所在的路径与名称;
根据所述算子库基本信息生成算子调用代码的代码头,具体包括:
根据所述算子库的头文件所在的路径与名称,生成依赖库的引入信息以及所述算子库的引入信息;
根据所述依赖库的引入信息以及所述算子库的引入信息生成所述代码头。
可选地,针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句之前,所述方法还包括:
根据该前端算子对应的配置信息,确定该前端算子与所述算子调用模板之间的映射关系。
可选地,针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句及对模板函数的调用语句,具体包括:
获取以该前端算子的名称作为键的目标键值对;
确定所述目标键值对中的值所对应的算子调用模板,并生成所述声明语句以及所述调用语句,其中,针对每个算子调用模板,该算子调用模板对应至少一种前端算子。
可选地,所述配置信息包括:算子调用模板的名称,输入张量个数、输出张量个数,以及,后端算子对应运算的描述对象申明,运算的操作申明,及描述对象的内存释放语句。
可选地,根据所述代码头、所述声明语句、所述调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码,具体包括:
根据所述声明语句以及所述调用语句调用所述算子调用模板对应模板函数的完整函数体;
根据所述模板函数、所述代码头以及所述配置信息生成所述后端算子的调用代码。
可选地,所述算子调用模板对应的模板函数中包含有各功能模块的模块代码,所述模块代码包括:设备管理模块代码、内存申请模块代码、张量申明模块代码、数据搬运模块代码、运算操作模块代码以及内存释放模块代码。
本说明书提供了一种算子调用代码自动生成装置,包括:
获取模块,获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图;
第一生成模块,根据所述算子库基本信息生成算子调用代码的代码头,所述代码头用于引入所述硬件平台的算子库以及依赖库;
解析模块,对所述计算图进行解析,确定所述计算图中的各前端算子;
确定模块,针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句;
第二生成模块,根据所述代码头、所述声明语句、所述调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码;
调用模块,根据每个后端算子的调用代码调用所述后端硬件平台的各后端算子,以通过所述各后端算子执行计算任务。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述算子调用代码自动生成的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述算子调用代码自动生成的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的算子调用代码自动生成的方法中,获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图;根据算子库基本信息生成算子调用代码的代码头;对计算图进行解析,确定计算图中的各前端算子;针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句;根据代码头、声明语句、调用语句以及该算子对应的配置信息,生成后端算子的调用代码;根据每个后端算子的调用代码调用各后端算子,以通过各后端算子执行计算任务。
从上述方法可以看出,本方案可以通过对深度学习算法计算图进行解析,进而根据前端算子和后端硬件平台中算子库的映射配置信息,自动生成后端算子的调用代码,相比于开发人员重新编写算子调用代码的方式,本方案可以自动生成新算子的调用代码,提高了算子调用代码的生成效率,极大地节省了人力资源以及算子调用的复杂度。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种算子调用代码自动生成的方法的流程示意图;
图2为本说明书中提供的一种前端算子与算子调用目标之间的映射关系示意图;
图3为本说明书中提供的一种算子调用模板的结构示意图;
图4为本说明书提供的一种算子调用代码自动生成装置的示意图;
图5为本说明书提供的一种对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种算子调用代码自动生成的方法的流程示意图,包括以下步骤:
S101:获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图。
S102:根据所述算子库基本信息生成算子调用代码的代码头,所述代码头用于引入所述硬件平台的算子库以及依赖库。
人工智能(Artificial Intelligence,AI)应用的落地实施关键在于 AI 模型(深度学习模型)的高效训练。在实际应用中,深度学习框架通过对后端硬件平台算子的调用,来实现对深度学习算法训练过程中的计算任务。
其中,后端硬件平台可以包括图形处理器(Graphics Processing Unit,GPU)、数据处理器(Data Processing Unit,DPU)、图像处理单元(Image Processing Unit,IPU)以及张量处理器(Tensor Processing Unit ,TPU)等不同类型及架构的AI加速器。
另外,在本说明书中,用于实现一种算子调用代码自动生成的方法的执行主体可以是部署有深度学习框架的服务器等指定设备,为了便于描述,本说明书仅以服务器作为执行主体为例,对本说明书中提供的一种算子调用代码自动生成的方法进行说明。
服务器可以获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图,该计算图可以是对深度学习算法进行编译后得到的。
算子库的基本信息包括后端硬件平台算子库的头文件在硬件平台本地内存的路径与名称,服务器可以根据算子库的头文件所在的路径与名称,生成算子依赖库的引入信息以及算子库的引入信息,进而根据依赖库的引入信息以及所述算子库的引入信息生成所述代码头。从而在后端算子的调用过程中通过该代码头引入依赖库和算子库。
S103:对所述计算图进行解析,确定所述计算图中的各前端算子。
S104:针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句。
服务器可以对获取到的计算图进行解析,从而确定该计算图对应的各前端算子,如Dense、Conv、Relu等,另外,服务器还可以确定出各前端算子之间的拓扑关系。
之后服务器可以根据算子与后端算子的算子调用目标之间的映射关系,生成算子调用模板的声明语句以及模板函数的调用语句。
其中,上述映射关系可以根据前端算子的配置信息进行确定的,开发人员可以预先对不同算子的配置信息进行设置,对于每个前端算子,该前端算子对应的配置信息可以包括:算子调用模板的名称,输入该算子的张量个数、该算子输出的张量个数,以及,该前端算子对应后端算子的运算的描述对象申明(用于指定运算的描述对象),运算的操作申明(用于指定算子的运算操作),及描述对象的内存释放语句(用于在运算完成后释放内存)。
该配置信息可以表示为:
// 前端算子与算子调用模板的映射关系。static std:map<std:string, std:string> TopsOpMap = {{"ADD","topsAdd"}, …};
// 算子基本信息,表示topsAdd算子有2个输入张量,1个输出张量,且输入张量和输出张量的类型均为“TENSORND”。
static TopsOp CreateOpByName(std:string funcName) {if (funcName == "topsAdd"){return TopsOp(funcName,2,1,{"TENSORND","TENSORND"},{"TENSORND"});}
else if(…)
else{std:cout << "CreateOpByName # Unrecognized op :" << funcName<< std:endl;throw " # Unrecognized op !";}}
// 对应的后端算子运算的描述对象申明和运算操作语句。
static std:string PrintTopsOp(const std:string&opName) {std:string s;
if(opName=="topsAdd"){s=PrintTopsBinaryOp("TOPS_BINARY_OP_ADD");}
else if(…)
else{std:cout << "createOpByName # Unrecognized op :" << opName<< std:endl;throw " # Unrecognized op !";}return s;}
static std:string PrintTopsBinaryOp(const std:string&mode){ std:ostringstream code_stream_;
code_stream_ << "topsBinaryOp(deviceCtx," << mode<< ",desc_i_0,mem_i_0,desc_i_1,mem_i_1,desc_o_0,&mem_o_0);\n\n";
return code_stream_.str();
在本说明书中,可以使用一个静态键值对(key-value)集合map对象维护前端算子与算子调用模板的映射关系,map对象的键(key)为前端计算图中定义的算子名称,值(value)为自定义的算子调用模板名称。
对于每个前端算子,服务器可以获取以该前端算子的名称作为键的目标键值对,进而确定目标键值对中的值所对应的算子调用模板,并生成声明语句以及调用语句。算子调用模板的声明语句可以表示为:“void topsAdd(float* input0, float* input1,float* res)”用于指明算子调用模板对应的前端算子以及调用后端算子,生成的对模板函数的调用语句可以表示为:“topsAdd(x0, x1, buf_0);”用于对算子调用模板的模板函数进行调用。
需要说明的是,前端算子与后端算子对应的映射关系并不是一对一的,多个不同的前端算子可能对应同一个后端算子的算子调用模板,且对应的后端算子的算子调用模板的模式可能是相同的,也可能是不同的。为了便于理解,本说明书提供了一种前端算子与算子调用目标之间的映射关系示意图,如图2所示。
图2为本说明书中提供的一种前端算子与算子调用目标之间的映射关系示意图。
其中,前端算子1~ 4可以依次为:ADD、SUB、nn.dense、nn.batch_matmul,算子调用模板1~3可以依次为:topsADD、topsSub、topsDot,ADD和SUB分别对应两种模式,后端算子A可以为topsBinaryOp(mode),后端算子B可以为topsDot。
S105:根据所述代码头、所述声明语句、所述调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码。
S106:根据每个后端算子的调用代码调用所述后端硬件平台的各后端算子,以通过所述各后端算子执行计算任务。
服务器可以根据声明语句以及调用语句调用算子调用模板的模板函数,进而根据模板函数、代码头以及配置信息生成完整的后端算子的调用代码。包含算子调用模板函数代码,及对前端传入参数的解析,对模板函数的调用,最后将计算结果放在内存指定位置。
在本说明书中,后端算子调用模板的名称可以为“topsAdd”;后端算子输入输出张量对应的张量描述类型可以为“TENSORND”;后端算子对应的运算的操作申明可以为“topsBinaryOp(deviceCtx,TOPS_BINARY_OP_ADD, desc_i_0,mem_i_0,desc_i_1,mem_i_1,desc_o_0,&mem_o_0);”。
进一步的,算子调用模板对应模板函数中包含有各功能模块的模块代码,这些模块代码可以包括:设备管理模块代码、内存申请模块代码、张量申明模块代码、数据搬运模块代码、运算操作模块代码以及内存释放模块代码,分别对应后端算子调用过程中的6个功能模块。当然,还可以包含有其他功能模块对应的模块代码,本说明书对此不做具体限定。
为了便于理解,本说明书提供了一种算子调用模板的结构示意图,如图3所示。
图3为本说明书中提供的一种算子调用模板的结构示意图。
其中,设备管理模块用于管理当前的后台设备(AI加速器),内存申明模块用于指示调用后端算子所占用的内存信息,张量申明模块用于指示各张量的张量信息,数据搬运模块用于将服务器内存(主存)中的数据转移至加速芯片内存以及将加速芯片内存中的数据转移至服务器内存,运算操作模块用于执行当前算子对应的运算逻辑,内存释放模块用于完成运算操作后释放内存。
服务器可以根据每个前端算子之间的拓扑关系,生成每个后端算子的调用代码,在通过深度学习框架对深度模型进行训练的过程中可以基于各算子调用代码调用对应的后端算子,从而执行针对深度学习模型的计算任务。
从上述方法可以看出,本方案可以通过C++语言编写的代码,解析计算图,获取计算节点,并将其映射到特定后端硬件平台的算子,自动生成算子调用代码,输出C++源文件。本发明对算子调用代码模板进行了抽象,提取了设备管理、内存申请、张量申明、数据搬运、运算操作、内存释放等六个模块,其中,为设备管理、内存申请、数据搬运、内存释放等五个模块编写了通用代码,将每个算子各异的张量申明和运算操作模块实现为配置化读取,简化了繁琐的算子调用代码模板的编写工作,提升了开发效率。
在需要增加新的算子时,无需撰写新的算子调用代码模板,通过添加一组新算子的配置信息,即可自动生成对应算子的调用代码模板。进一步地,通过调用这个源文件,可实现将计算图中的计算节点分配到特定硬件平台上进行计算,然后获取计算结果。利用该特性,可将特定AI加速芯片集成到张量虚拟机(Tensor Virtual Machine, TVM)中,实现在TVM中将计算图分发到特定AI加速芯片上进行计算。
以上为本说明书的一个或多个实施算子调用代码自动生成的方法,基于同样的思路,本说明书还提供了相应的算子调用代码自动生成装置,如图4所示。
图4为本说明书提供的一种算子调用代码自动生成装置的示意图,包括:
获取模块401,用于获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图;
第一生成模块402,用于根据所述算子库基本信息生成算子调用代码的代码头,所述代码头用于引入所述硬件平台的算子库以及依赖库;
解析模块403,用于对所述计算图进行解析,确定所述计算图中的各前端算子;
确定模块404,用于针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句;
第二生成模块405,用于根据所述代码头、所述声明语句、所述调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码;
调用模块406,用于根据每个后端算子的调用代码调用所述后端硬件平台的各后端算子,以通过所述各后端算子执行计算任务。
可选地,所述算子库基本信息包括:所述后端硬件平台算子库的头文件所在的路径与名称;
所述第一生成模块402具体用于,根据所述算子库的头文件所在的路径与名称,生成依赖库的引入信息以及所述算子库的引入信息;根据所述依赖库的引入信息以及所述算子库的引入信息生成所述代码头。
可选地,针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句之前,所述确定模块404还用于,根据该前端算子对应的配置信息,确定该前端算子与所述算子调用模板之间的映射关系。
可选地,所述确定模块404具体用于,获取以该前端算子的名称作为键的目标键值对;确定所述目标键值对中的值所对应的算子调用模板,并生成所述声明语句以及所述调用语句,其中,针对每个算子调用模板,该算子调用模板对应至少一种前端算子。
可选地,所述配置信息包括:算子调用模板的名称,输入张量个数、输出张量个数,以及,后端算子对应运算的描述对象申明,运算的操作申明,及描述对象的内存释放语句。
可选地,所述第二生成模块405具体用于,根据所述声明语句以及所述调用语句调用所述算子调用模板对应模板函数的完整函数体;
根据所述模板函数、所述代码头以及所述配置信息生成所述后端算子的调用代码。
可选地,所述算子调用模板对应的模板函数中包含有各功能模块的模块代码,所述模块代码包括:设备管理模块代码、内存申请模块代码、张量申明模块代码、数据搬运模块代码、运算操作模块代码以及内存释放模块代码。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种算子调用代码自动生成的方法。
本说明书还提供了图5所示的一种对应于图1的电子设备的示意结构图。如图5所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的算子调用代码自动生成的方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(ProgrammableLogic Device, PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(HardwareDescription Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(AdvancedBoolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(JavaHardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby HardwareDescription Language)等,目前最普遍使用的是VHDL(Very-High-Speed IntegratedCircuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (10)
1.一种算子调用代码自动生成的方法,其特征在于,所述方法应用与深度学习框架,包括:
获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图;
根据所述算子库基本信息生成算子调用代码的代码头,所述代码头用于引入所述硬件平台的算子库以及依赖库;
对所述计算图进行解析,确定所述计算图中的各前端算子;
针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句;
根据所述代码头、所述声明语句、所述调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码;
根据每个后端算子的调用代码调用所述后端硬件平台的各后端算子,以通过所述各后端算子执行计算任务。
2.如权利要求1所述的方法,其特征在于,所述算子库基本信息包括:所述后端硬件平台算子库的头文件所在的路径与名称;
根据所述算子库基本信息生成算子调用代码的代码头,具体包括:
根据所述算子库的头文件所在的路径与名称,生成依赖库的引入信息以及所述算子库的引入信息;
根据所述依赖库的引入信息以及所述算子库的引入信息生成所述代码头。
3.如权利要求1所述的方法,其特征在于,针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句之前,所述方法还包括:
根据该前端算子对应的配置信息,确定该前端算子与所述算子调用模板之间的映射关系。
4.如权利要求1所述的方法,其特征在于,针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句及对模板函数的调用语句,具体包括:
获取以该前端算子的名称作为键的目标键值对;
确定所述目标键值对中的值所对应的算子调用模板,并生成所述声明语句以及所述调用语句,其中,针对每个算子调用模板,该算子调用模板对应至少一种前端算子。
5.如权利要求1所述的方法,其特征在于,所述配置信息包括:算子调用模板的名称,输入张量个数、输出张量个数,以及,后端算子对应运算的描述对象申明,运算的操作申明,及描述对象的内存释放语句。
6.如权利要求1所述的方法,其特征在于,根据所述代码头、所述声明语句、所述调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码,具体包括:
根据所述声明语句以及所述调用语句调用所述算子调用模板对应模板函数的完整函数体;
根据所述模板函数、所述代码头以及所述配置信息生成所述后端算子的调用代码。
7.如权利要求1所述的方法,其特征在于,所述算子调用模板对应的模板函数中包含有各功能模块的模块代码,所述模块代码包括:设备管理模块代码、内存申请模块代码、张量申明模块代码、数据搬运模块代码、运算操作模块代码以及内存释放模块代码。
8.一种算子调用代码自动生成装置,其特征在于,包括:
获取模块,获取后端硬件平台对应的算子库基本信息以及目标深度学习算法的计算图;
第一生成模块,根据所述算子库基本信息生成算子调用代码的代码头,所述代码头用于引入所述硬件平台的算子库以及依赖库;
解析模块,对所述计算图进行解析,确定所述计算图中的各前端算子;
确定模块,针对每个前端算子,根据该前端算子与算子调用模板之间的映射关系,确定该算子对应算子调用模板的声明语句以及模板函数的调用语句;
第二生成模块,根据所述代码头、所述声明语句、所述调用语句以及该算子对应的配置信息,生成完整的后端算子的调用代码;
调用模块,根据每个后端算子的调用代码调用所述后端硬件平台的各后端算子,以通过所述各后端算子执行计算任务。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311202669.4A CN116932092B (zh) | 2023-09-18 | 2023-09-18 | 一种算子调用代码自动生成的方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311202669.4A CN116932092B (zh) | 2023-09-18 | 2023-09-18 | 一种算子调用代码自动生成的方法、装置、介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116932092A true CN116932092A (zh) | 2023-10-24 |
CN116932092B CN116932092B (zh) | 2024-01-09 |
Family
ID=88381138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311202669.4A Active CN116932092B (zh) | 2023-09-18 | 2023-09-18 | 一种算子调用代码自动生成的方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116932092B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117555586A (zh) * | 2024-01-11 | 2024-02-13 | 之江实验室 | 一种算法应用发布、管理及评分方法 |
CN118151906A (zh) * | 2024-05-11 | 2024-06-07 | 上海燧原智能科技有限公司 | 一种算子的自动生成方法、装置、设备及介质 |
CN118194293A (zh) * | 2024-03-15 | 2024-06-14 | 北京奇虎科技有限公司 | 机器学习框架的模糊测试方法及相关设备 |
CN118502847A (zh) * | 2024-07-19 | 2024-08-16 | 北京壁仞科技开发有限公司 | 用于确定匹配算子的方法、计算装置、介质和程序产品 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080072206A1 (en) * | 2006-09-15 | 2008-03-20 | International Business Machines Corporation | Unrolling Hardware Design Generate Statements in a Source Window Debugger |
CN102339252A (zh) * | 2011-07-25 | 2012-02-01 | 大连理工大学 | 基于xml中间模型以及缺陷模式匹配的静态检测系统 |
CN113010181A (zh) * | 2021-03-24 | 2021-06-22 | 北京百度网讯科技有限公司 | 一种深度学习框架之中算子的部署方法、装置及电子设备 |
WO2021164506A1 (zh) * | 2020-02-18 | 2021-08-26 | 深圳鲲云信息科技有限公司 | 神经网络模型的数据处理方法、装置、设备及存储介质 |
CN113687816A (zh) * | 2020-05-19 | 2021-11-23 | 杭州海康威视数字技术股份有限公司 | 算子的可执行代码的生成方法及装置 |
WO2022052959A1 (zh) * | 2020-09-08 | 2022-03-17 | 第四范式(北京)技术有限公司 | 一种文本数据的处理方法、装置及系统 |
CN114218929B (zh) * | 2022-02-22 | 2022-05-17 | 之江实验室 | 一种基于元算子融合的多平台算子智能化开发系统及方法 |
CN114841326A (zh) * | 2022-05-19 | 2022-08-02 | 北京百度网讯科技有限公司 | 深度学习框架的算子处理方法、装置、设备和存储介质 |
CN115309562A (zh) * | 2021-05-07 | 2022-11-08 | 北京三快在线科技有限公司 | 算子调用系统、算子生成方法,电子设备 |
CN115860061A (zh) * | 2022-11-01 | 2023-03-28 | 阿里巴巴(中国)有限公司 | 图神经网络优化方法和图神经网络推理系统 |
CN116048784A (zh) * | 2022-12-15 | 2023-05-02 | 中国航空工业集团公司西安航空计算技术研究所 | 智能算法中算子的硬件动态分配方法及系统 |
CN116185532A (zh) * | 2023-04-18 | 2023-05-30 | 之江实验室 | 一种任务执行系统、方法、存储介质及电子设备 |
CN116257303A (zh) * | 2023-05-04 | 2023-06-13 | 支付宝(杭州)信息技术有限公司 | 一种数据安全处理的方法、装置、存储介质及电子设备 |
-
2023
- 2023-09-18 CN CN202311202669.4A patent/CN116932092B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080072206A1 (en) * | 2006-09-15 | 2008-03-20 | International Business Machines Corporation | Unrolling Hardware Design Generate Statements in a Source Window Debugger |
CN102339252A (zh) * | 2011-07-25 | 2012-02-01 | 大连理工大学 | 基于xml中间模型以及缺陷模式匹配的静态检测系统 |
WO2021164506A1 (zh) * | 2020-02-18 | 2021-08-26 | 深圳鲲云信息科技有限公司 | 神经网络模型的数据处理方法、装置、设备及存储介质 |
CN113687816A (zh) * | 2020-05-19 | 2021-11-23 | 杭州海康威视数字技术股份有限公司 | 算子的可执行代码的生成方法及装置 |
WO2022052959A1 (zh) * | 2020-09-08 | 2022-03-17 | 第四范式(北京)技术有限公司 | 一种文本数据的处理方法、装置及系统 |
CN113010181A (zh) * | 2021-03-24 | 2021-06-22 | 北京百度网讯科技有限公司 | 一种深度学习框架之中算子的部署方法、装置及电子设备 |
CN115309562A (zh) * | 2021-05-07 | 2022-11-08 | 北京三快在线科技有限公司 | 算子调用系统、算子生成方法,电子设备 |
CN114218929B (zh) * | 2022-02-22 | 2022-05-17 | 之江实验室 | 一种基于元算子融合的多平台算子智能化开发系统及方法 |
CN114841326A (zh) * | 2022-05-19 | 2022-08-02 | 北京百度网讯科技有限公司 | 深度学习框架的算子处理方法、装置、设备和存储介质 |
CN115860061A (zh) * | 2022-11-01 | 2023-03-28 | 阿里巴巴(中国)有限公司 | 图神经网络优化方法和图神经网络推理系统 |
CN116048784A (zh) * | 2022-12-15 | 2023-05-02 | 中国航空工业集团公司西安航空计算技术研究所 | 智能算法中算子的硬件动态分配方法及系统 |
CN116185532A (zh) * | 2023-04-18 | 2023-05-30 | 之江实验室 | 一种任务执行系统、方法、存储介质及电子设备 |
CN116257303A (zh) * | 2023-05-04 | 2023-06-13 | 支付宝(杭州)信息技术有限公司 | 一种数据安全处理的方法、装置、存储介质及电子设备 |
Non-Patent Citations (5)
Title |
---|
WANG W 等: "Database meets deep learning:Challenges and opportunities", SIGMOD RECORD * |
丁然;林建文;朱振华;刘弋波;: "一种类CPU的深度学习协处理器架构", 中国集成电路, no. 4 * |
傅鹂;鲁先志;蔡斌;: "一种基于数据流驱动的数据流连续查询模型", 重庆工学院学报(自然科学版), no. 10 * |
李韦;文渊博;孙广中;陈云霁;: "提升高性能计算程序性能可移植性的领域特定语言", 高技术通讯, no. 02 * |
王秉睿;兰慧盈;陈云霁;: "深度学习编程框架", 大数据, no. 04 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117555586A (zh) * | 2024-01-11 | 2024-02-13 | 之江实验室 | 一种算法应用发布、管理及评分方法 |
CN117555586B (zh) * | 2024-01-11 | 2024-03-22 | 之江实验室 | 一种算法应用发布、管理及评分方法 |
CN118194293A (zh) * | 2024-03-15 | 2024-06-14 | 北京奇虎科技有限公司 | 机器学习框架的模糊测试方法及相关设备 |
CN118151906A (zh) * | 2024-05-11 | 2024-06-07 | 上海燧原智能科技有限公司 | 一种算子的自动生成方法、装置、设备及介质 |
CN118151906B (zh) * | 2024-05-11 | 2024-07-23 | 上海燧原智能科技有限公司 | 一种算子的自动生成方法、装置、设备及介质 |
CN118502847A (zh) * | 2024-07-19 | 2024-08-16 | 北京壁仞科技开发有限公司 | 用于确定匹配算子的方法、计算装置、介质和程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN116932092B (zh) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116932092B (zh) | 一种算子调用代码自动生成的方法、装置、介质及设备 | |
CN116521380A (zh) | 一种资源自适应协同的模型训练加速方法、装置及设备 | |
CN116225669B (zh) | 一种任务执行方法、装置、存储介质及电子设备 | |
CN116185532B (zh) | 一种任务执行系统、方法、存储介质及电子设备 | |
CN117406982B (zh) | 一种存算一体应用生成系统和生成方法、存储介质及设备 | |
CN116432778B (zh) | 一种数据处理的方法、装置、存储介质及电子设备 | |
CN115829017B (zh) | 一种基于芯粒的数据处理的方法、装置、介质及设备 | |
CN116167461B (zh) | 一种模型训练的方法、装置、存储介质及电子设备 | |
CN116467061B (zh) | 一种任务执行的方法、装置、存储介质及电子设备 | |
CN116450344A (zh) | 一种任务执行方法、装置、存储介质及电子设备 | |
CN114547024A (zh) | 一种sql语句风险检测方法、装置、设备及介质 | |
CN116932175B (zh) | 一种基于序列生成的异构芯片任务调度方法以及装置 | |
CN117828360A (zh) | 一种模型训练、代码生成方法、装置、存储介质及设备 | |
CN116842715B (zh) | 一种仿真数据结构化处理系统 | |
CN116107728B (zh) | 一种任务执行方法、装置、存储介质及电子设备 | |
CN116167431B (zh) | 一种基于混合精度模型加速的业务处理方法及装置 | |
CN116347623B (zh) | 一种任务调度的方法、装置、存储介质及电子设备 | |
CN116341642B (zh) | 一种数据处理的方法、装置、存储介质及电子设备 | |
CN116048525A (zh) | 一种命令行工具的管理方法、装置以及设备 | |
CN116402165A (zh) | 一种算子检测的方法、装置、存储介质以及电子设备 | |
CN116384505A (zh) | 一种数据处理的方法、装置、存储介质及电子设备 | |
CN116136952A (zh) | 一种针对元器件的仿真测试方法及装置 | |
CN111753990B (zh) | 一种量子计算机模拟环境方法、设备及介质 | |
CN117455015B (zh) | 一种模型优化的方法、装置、存储介质及电子设备 | |
CN117522669B (zh) | 一种图形处理器内存优化方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |