CN112711422A - 一种神经网络编译的优化方法及系统 - Google Patents
一种神经网络编译的优化方法及系统 Download PDFInfo
- Publication number
- CN112711422A CN112711422A CN202011637016.5A CN202011637016A CN112711422A CN 112711422 A CN112711422 A CN 112711422A CN 202011637016 A CN202011637016 A CN 202011637016A CN 112711422 A CN112711422 A CN 112711422A
- Authority
- CN
- China
- Prior art keywords
- operator
- layer
- fusion
- output
- operators
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 52
- 238000005457 optimization Methods 0.000 title claims abstract description 47
- 230000004927 fusion Effects 0.000 claims abstract description 185
- 238000004364 calculation method Methods 0.000 claims abstract description 84
- 238000013136 deep learning model Methods 0.000 claims abstract description 48
- 238000004088 simulation Methods 0.000 claims abstract description 20
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 13
- 125000002015 acyclic group Chemical group 0.000 claims description 8
- 230000001419 dependent effect Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 3
- 238000002203 pretreatment Methods 0.000 abstract description 15
- 239000010410 layer Substances 0.000 description 260
- 239000011229 interlayer Substances 0.000 description 22
- 238000013135 deep learning Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000010845 search algorithm Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/44—Encoding
- G06F8/443—Optimisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明提供了神经网络编译的优化方法,包括:根据待编译深度学习模型获取具有设定数据结构的计算图。将一个或多个预处理层融合为多个融合层。根据融合层中的算子间依赖关系获取融合层中的算子计算顺序。获取层内算子输入、输出调用次数及拆分策略。获取多个融合层在模拟硬件平台上对应的系统开销值。将所述多个融合层的系统开销值中最小值对应的融合层作为当前融合层。根据当前融合层编译待编译深度学习模型。其通过融合神经网络多层算子,将计算的中间结果保存于片上而非通过内存进行读写,可以有效地减少访存的需求,从而提升系统的执行效率。同时,本发明还提供了神经网络编译的优化系统。
Description
技术领域
本发明涉及可重构处理器及应用领域,应用于可重构编译器的编译器及编译过程。本发明具体涉及一种神经网络编译的优化方法及系统。
背景技术
深度神经网络已应用于多个领域,如:人脸识别、机器翻译、推荐系统等领域。随着深度神经网络模型复杂度的提升,在相应任务上取得更好效果的同时,计算的复杂度也随之增长。为了提升深度神经网络的计算效率,从而使其能够更有效的完成相应的任务,亟须基于神经网络的编译优化技术来对复杂神经网络的计算进行优化。
在当前的计算机体系结构中,处理单元的执行速度远高于存储单元的访问速度,对于内存的访问已经成为制约整个计算机系统的瓶颈。针对这一瓶颈,现有技术中通过访存技术或通过有效的复用数据的方式来提升系统的执行速度。其关注点在于单个算子数据流进行调度。但此方式在提升系统执行速度的同时,也增加了内存负担,从而并未显著提升系统的执行效率,同时增加了系统负担。
发明内容
本发明的目的是提供一种神经网络编译的优化方法,其通过融合神经网络多层算子,将计算的中间结果保存于片上而非通过内存进行读写,可以有效地减少访存的需求,从而提升系统的执行效率。
同时本发明的目的是提供一种神经网络编译的优化系统,其通过融合神经网络多层算子,将计算的中间结果保存于片上而非通过内存进行读写,可以有效地减少访存的需求,从而提升系统的执行效率。
本发明的第一个方面,提供了一种神经网络编译的优化方法,神经网络编译的优化方法能够应用于可重构处理器的编译。可重构处理器中包括缓冲存储器。缓冲存储器具有缓冲存储量。
神经网络编译的优化方法包括:
步骤S101,根据待编译深度学习模型获取具有设定数据结构的计算图。计算图具有DAG无回路有向图属性。计算图中包括多个算子。多个算子包括:一个输入算子和一个或多个计算算子。输入算子相当于DAG无回路有向图中的根结点。计算算子相当于DAG无回路有向图中的中间结点。获取算子属性信息和算子间依赖关系。算子属性信息包括:算子输出数据的存储地址及存储量、算子的类型信息以及算子的参数信息。算子间依赖关系相应于DAG无回路有向图的各结点间的拓扑关系。
步骤S102,根据算子间依赖关系及输入算子与计算算子间的最长路径长度,分组算子为多个预处理层。将一个或多个预处理层融合为多个融合层。
步骤S103,根据融合层中的算子间依赖关系获取融合层中的算子计算顺序。根据融合层中的算子计算顺序给算子分配缓冲存储地址及存储量。
步骤S104,根据融合层中算子间依赖关系,获取融合层的层内输出算子、层内输入算子和层内中间算子。层内输出算子为与其他融合层具有输出关系的算子。层内输入算子为与其他融合层具有输入关系的算子。层内中间算子为仅与层内输出算子或层内输入算子具有依赖关系的算子。
根据层内输出算子的输出数据的存储地址、存储量及缓冲存储量获取缓冲存储器在缓存层内输出算子输出数据时的输出调用次数。根据输出调用次数获取层内输出算子的拆分策略。
根据层内输出算子与其他算子的依赖关系、层内输出算子的类型信息以及层内输出算子的参数信息获取层内输出算子的输入数据量。
根据输出数据量及缓冲存储量获取缓冲存储器在缓存层内输出算子输入数据时的输入调用次数。根据输入调用次数获取层内输出算子输入数据的的拆分策略。
将层内输出算子的输入数据作为与其依赖算子的输出数据。重复本步骤,直到层内中间算子及层内输入算子能够获取输出数据的输出调用次数及拆分策略、能够获取输入数据的输入调用次数及拆分策略为止。
步骤S105,将多个融合层、融合层中各算子的计算顺序以及所有融合层中输出算子、输入算子及中间算子的输出调用次数及拆分策略,部署在一个模拟硬件平台上获取多个融合层对应的系统开销值。模拟硬件平台具有一种设定的可重构处理器的系统结构。
步骤S106,将所述多个融合层的系统开销值中最小值对应的融合层作为当前融合层。
步骤S107,根据当前融合层编译待编译深度学习模型。
在本发明神经网络编译的优化方法的一种实施方式中,步骤S101前还包括:
步骤S100,获取待编译深度学习模型。
步骤S101中根据待编译深度学习模型获取具有设定数据结构的计算图的步骤包括:
根据待编译深度学习模型生成对应IR转换函数。通过IR转换函数将待编译深度学习模型转换为具有设定数据结构的计算图。
在本发明神经网络编译的优化方法的另一种实施方式中,步骤S102包括:
步骤S1021,多个预处理层为1、2、3......n预处理层。
步骤S1022,根据n-1预处理层获取n预处理层的融合层、根据n-1预处理层与n预处理层获取n-2预处理层的融合层........。根据2预处理层、3预处理层~和n-1预处理层获取1预处理层的融合层。
在本发明神经网络编译的优化方法的再一种实施方式中,步骤S107包括:
根据根结点的当前融合方案编译待编译深度学习模型,获取待编译深度学习模型的编译文件。
本发明的第二个方面,提供了一种神经网络编译的优化系统,神经网络编译的优化系统能够应用于可重构处理器的编译。可重构处理器中包括缓冲存储器。缓冲存储器具有缓冲存储量。
神经网络编译的优化系统包括:一个计算图获取单元、一个融合层获取单元、一个计算顺序获取单元、一个平铺单元、一个模拟单元、一个当前融合层获取单元和一个编译单元。其中,
计算图获取单元,其配置为根据待编译深度学习模型获取具有设定数据结构的计算图。计算图具有DAG无回路有向图属性。计算图中包括多个算子。多个算子包括:一个输入算子和一个或多个计算算子。输入算子相当于DAG无回路有向图中的根结点。
计算算子相当于DAG无回路有向图中的中间结点。获取算子属性信息和算子间依赖关系。算子属性信息包括:算子输出数据的存储地址及存储量、算子的类型信息以及算子的参数信息。算子间依赖关系相应于DAG无回路有向图的各结点间的拓扑关系。
融合层获取单元,其配置为根据算子间依赖关系及输入算子与计算算子间的最长路径长度,分组算子为多个预处理层。将一个或多个预处理层融合为多个融合层。
计算顺序获取单元,其配置为根据融合层中的算子间依赖关系获取融合层中的算子计算顺序。根据融合层中的算子计算顺序给算子分配缓冲存储地址及存储量。
平铺单元,其配置为根据融合层中算子间依赖关系,获取融合层的层内输出算子、层内输入算子和层内中间算子。层内输出算子为与其他融合层具有输出关系的算子。层内输入算子为与其他融合层具有输入关系的算子。层内中间算子为仅与层内输出算子或层内输入算子具有依赖关系的算子。
根据层内输出算子的输出数据的存储地址、存储量及缓冲存储量获取缓冲存储器在缓存层内输出算子输出数据时的输出调用次数。根据输出调用次数获取层内输出算子的拆分策略。
根据层内输出算子与其他算子的依赖关系、层内输出算子的类型信息以及层内输出算子的参数信息获取层内输出算子的输入数据量。
根据输出数据量及缓冲存储量获取缓冲存储器在缓存层内输出算子输入数据时的输入调用次数。根据输入调用次数获取层内输出算子输入数据的的拆分策略。
将层内输出算子的输入数据作为与其依赖算子的输出数据。重复本步骤,直到层内中间算子及层内输入算子能够获取输出数据的输出调用次数及拆分策略、能够获取输入数据的输入调用次数及拆分策略为止。
模拟单元,其配置为将多个融合层、融合层中各算子的计算顺序以及所有融合层中输出算子、输入算子及中间算子的输出调用次数及拆分策略,部署在一个模拟硬件平台上获取多个融合层对应的系统开销值。模拟硬件平台具有一种设定的可重构处理器的系统结构。
当前融合层获取单元,其配置为将所述多个融合层的系统开销值中最小值对应的融合层作为当前融合层。
编译单元,其配置为根据当前融合层编译待编译深度学习模型。
在本发明神经网络编译的优化系统的另一种实施方式中,其系统还包括:
一个获取单元,其配置为待编译深度学习模型。
计算图获取单元,还其配置为根据待编译深度学习模型生成对应IR转换函数。通过IR转换函数将待编译深度学习模型转换为具有设定数据结构的计算图。
在本发明神经网络编译的优化系统的另一种实施方式中,融合层获取单元还配置为:
多个预处理层为1、2、3......n预处理层。
根据n-1预处理层获取n预处理层的融合层、根据n-1预处理层与n预处理层获取n-2预处理层的融合层........。根据2预处理层、3预处理层~和n-1预处理层获取1预处理层的融合层。
在本发明神经网络编译的优化系统的再一种实施方式中,编译单元还配置为:根据根结点的当前融合方案编译待编译深度学习模型,获取待编译深度学习模型的编译文件。
下文将以明确易懂的方式,结合附图对一种神经网络编译的优化方法及系统的特性、技术特征、优点及其实现方式予以进一步说明。
附图说明
图1是用于说明在本发明一种实施方式中的神经网络编译的优化方法的流程示意图。
图2是用于说明在本发明一种实施方式中的神经网络编译的优化系统的组成示意图。
图3是用于说明在本发明另一种实施方式中的神经网络编译的优化方法的流程示意图。
图4是用于说明在本发明一种实施方式中,处理层中各算子的结构示意图。
图5适用于说明在本发明的一种实施方式中,W宽度方向数据tiling平铺处理时的示意图。
具体实施方式
为了对发明的技术特征、目的和效果有更加清楚的理解,现对照附图说明本发明的具体实施方式,在各图中相同的标号表示结构相同或结构相似但功能相同的部件。
在本文中,“示意性”表示“充当实例、例子或说明”,不应将在本文中被描述为“示意性”的任何图示、实施方式解释为一种更优选的或更具优点的技术方案。为使图面简洁,各图中只示意性地表示出了与本示例性实施例相关的部分,它们并不代表其作为产品的实际结构及真实比例。
在本发明神经网络编译的优化方法的一种实施方式中,本发明主要包括以下部分:IR转换、层间融合方案搜索模块、块内与单算子调度模块、代价模型。上述各部分的执行流程参照图3所示。以下将对上述各部分的调用过程逐一说明:
1、IR转换模块
本发明支持多种深度学习框架定义的模型在硬件平台上进行部署,同时为了复用后续的模块,避免需要针对每一种深度学习框架提供专用的编译工具,本发明采用了将多种深度学习框架定义的计算图转换为统一的中间计算图表示的方法。后续的层间融合方案搜索模块、块内与单算子调度模块以及代价模型基于统一的中间表示进行处理,从而将编译优化工作与前端框架解耦合,提升编译工具的适应性与灵活性。
本发明支持当前主流框架中定义的大部分算子,在编译器实现的c++代码中为每一算子定义相应的类,类中包含表示计算图连接关系的域以及前向与反向计算的方法。通过为每一种深度学习框架编写相应的IR转换的函数,可以将不同的前端框架定义的计算图表示转换为统一的自定义的计算图表示。
2、层间融合方案搜索模块:
本发明使用层间融合方案搜索模块在整个计算图中搜索算子层间融合的组合方案,后续代价模型返回关于层间融合方案的代价评估作为反馈,指导搜索模块选择最优的组合方案。
本发明分析了神经网络连接的特性,从有效的复用算子的输入数据的角度,提出了一种可用的且有效的搜索方法。此方法主要由两部分组成:基于单源最长路径的深度划分以及基于动态规划的搜索方法。
神经网络尤其是卷积神经网络符合有向无环图(DAG)的性质,计算图通常有一个输入结点并可能有一个或多个输出结点。计算图中的一个算子可以连接到多个算子,即多个算子的输入数据依赖于同一个算子的输出数据。为了充分利用这部分相同的输入数据,本发明使用一种预处理的策略,将算子依据其与整个计算图的输入结点的最长距离进行分层,同一层的算子作为一个基本块成为后续块内调度的主体。通过块内共享相同的输入数据,可以有效减少这部分算子对于相同输入数据的内存访问,从而有效的提升数据复用以及提高系统的运行效率。
基于动态规划的搜索方法在前一步深度划分预分层后进行层间融合的搜索工作。在深度划分后的相邻层的输入输出数据仍然需要通过内存进行传输,基于动态规划的搜索方法通过搜索的方式寻找一种最优的层间融合的组合方案,使得融合后的计算代价最小。使用dp(i)表示第i层至最后一层所有融合方案中计算代价的最小值,最优子结构可表示为公式1:
最终通过动态规划方法可求得dp(1)即整个网络的所有融合方案中代价最小的组合方案。此动态规划的时间复杂度为n2为通过单源最长路径进行预分层后得到的总层数。相较于穷举的搜索方法指数级的时间复杂度,在搜索开销上,本发明使用的基于动态规划的方法取得了巨大的提升且搜索结果准确。
3、块内与单算子调度模块
本发明中块内与单算子调度模块将搜索模块当前的层间融合方案作为输入,对其中的多个算子进行算子间的计算调度以及单个算子内部的数据流调度。
本发明中块内的算子调度采用图的深度优先搜索方法,从融合方案中每一块的若干个输入数据其中之一出发,采用深度优先的策略进行探索,将所有可计算的算子加入到执行序列当中。
直到当前探索到的算子所依赖的输入还有未加入到执行序列的情况存在,则以当前算子为起点,根据算子所依赖的输入反向探索,将输入数据在计算过程中所有所需的算子依次加入到执行序列,直到算子依赖的所有输入均满足存在于执行序列的条件,则此算子当前状态为可计算,将其加入到执行序列并继续以深度优先的策略进行后续的探索。
采用深度优先的搜索方法为层间融合方案确定了每一块内部的各个算子的执行顺序,并可保证每一算子在其计算时所有的输入依赖均以完成计算,结果已从内存中取出或者已经计算完成,保存于片上。
多个块之间的计算顺序由计算图中的输入输出依赖唯一确定,由于本发明按照单源最长路径进行预分层操作,可以保证多个块间不存在循环依赖的问题。在确定块内算子的计算顺序之后,基于算子的计算顺序以及算子间的输入输出依赖关系,为相邻的算子分配不同的片上缓存id号,而没有数据依赖关系的算子尽可能的复用相同的片上缓存id号,使得分配到相同片上缓存id号的算子不会出现在计算过程中同时占用相应片上缓存的情况存在,最终为所有的算子分配用于保存计算结果的片上缓存id号。
依据每一片上缓存id号中保存算子计算结果中的最大数据量,将实际的片上缓存存储容量按照最大数据量的比例进行分配,最终完成对于每一算子分配用于保存计算结果的地址空间。
在确定块内算子间的计算顺序以及算子计算结果保存的片上缓存地址空间之后,单算子调度模块完成单个算子的数据流调度。本发明在单算子数据流调度中,基于整体的搜索空间复杂度的考虑,未使用搜索方法对单个算子内部的数据流调度方案进行搜索,而是采用固定的输出稳定的数据流调度策略。同时由于片上缓存有限,需要对单个算子按照H方向以及W方向进行tiling平铺。
由于本发明采用输出稳定的数据流调度方案,因此tiling平铺首先从整个块的所有输出算子出发,按照输出tiling平铺结果所需要的输入数据的数据范围,反推其依赖的输入算子计算结果在H与W方向的tiling平铺结果。
若有多个算子依赖于某算子的输出数据,而对于输出数据的tiling平铺结果需求不同,则分别在H与W方向取其所需的最大值。最终为所有算子确定计算的数据流调度方案。
4、代价模型
代价模型模块由两部分组成:指令转换模块与代价估算模块。
指令转换模块依据层间融合方案、块内算子的计算顺序以及单算子的tiling平铺方案,将相应的计算图计算方案转化为能够在实际硬件平台上执行的指令。同时由于代价模型之上的计算方案是在逻辑层面进行设计,与具体的硬件平台无关,所以本发明可以支持部署在多种硬件平台之上,从而实现将多种前端深度学习框架定义模型部署在多种硬件平台之上,提升编译工具的灵活性与适应性。
代价估算模块通过模拟的方式,估算指令执行过程所需要的执行代价,并且将得到的代价估算作为整个层间融合方案的最终开销,提供给层间融合方案搜索模块。层间融合方案搜索模块基于代价估算的开销最终选择出所有融合方案中最适配针对某一硬件平台的层间融合方案。
本发明的第一个方面,提供了一种神经网络编译的优化方法,神经网络编译的优化方法能够应用于可重构处理器的编译。可重构处理器中包括缓冲存储器。缓冲存储器具有缓冲存储量。
如图1所示,神经网络编译的优化方法包括以下步骤:
步骤S101,获取具有设定数据结构的计算图。
本步骤中,根据待编译深度学习模型获取具有设定数据结构的计算图。计算图具有DAG无回路有向图属性。计算图中包括多个算子。多个算子包括:一个输入算子和一个或多个计算算子。输入算子相当于DAG无回路有向图中的根结点。计算算子相当于DAG无回路有向图中的中间结点。
例如:如图4中所示的计算图。图4中所示的计算图具有DAG无回路有向图属性。图4中包括6个算子。“1”为输入算子。“2、3、4、5、6”为计算算子。输入算子“1”相当于DAG无回路有向图中的根结点。计算算子“2、3、4、5、6”相当于DAG无回路有向图中的中间结点。
获取算子属性信息和算子间依赖关系,获取上述算子“1、2、3、4、5、6”算子属性信息和算子间依赖关系。算子属性信息包括:算子输出数据的存储地址及存储量、算子的类型信息以及算子的参数信息。算子间依赖关系相应于DAG无回路有向图的各结点间的拓扑关系。
步骤S102,获取多个融合层。
本步骤中,根据算子间依赖关系及输入算子与计算算子间的最长路径长度,分组算子为多个预处理层。将一个或多个预处理层融合为多个融合层。
例如:计算图结构如图4所示,层间融合搜索模块完成算子层间融合方案的搜索工作。首先将计算图依据其拓扑结构进行预处理,按照每个算子到根节点的最大路径长度进行深度划分,具有相同深度的被放入同一个预处理层中。
如图4所示,1号节点为根节点,其最大路径长度为0。2、3、4号与根节点的最大路径长度为1。5号节点最大路径长度为2。6号节点由于依赖5号节点的输出结果,其与根节点的最大路径长度为3。
因此预处理之后的计算图可以被划分为4个预处理层,分别为预处理层10、20、30和40。层与层之间具有线性的连接关系。层间融合搜索模块之后使用动态规划算法,对预处理层之间进行融合。例如:10预处理层单独作为一个融合层与20及其后续预处理层中的最优融合方案构成一个融合方案;10预处理层与20预处理层融合作为一个融合层,与30及其后续预处理层中的最优融合方案构成一个融合方案;10预处理层与20、30预处理层融合作为一个融合层,与40及其后续预处理层中的最优融合方案构成一个融合方案;10、20、30、40预处理层融合为一个融合层并构成一个融合方案。根据上述所有融合方案中代价最小值得到10及后续预处理层的最优融合方案。
基于后续代价模型返回的计算开销,即从步骤S105中所得到的计算开销,得到最优的融合方案作为最终的执行方案。
动态规划算法的最优子结构为公式1,其中dp(i)表示从第i个预处理层开始向后进行融合,能够得到的最优的执行开销。
步骤S103,获取融合层中的算子计算顺序。
本步骤中,根据融合层中的算子间依赖关系获取融合层中的算子计算顺序。根据融合层中的算子计算顺序给算子分配缓冲存储地址及存储量。
例如:如图4所示,在融合层10、20、30和40内首先完成层内算子的执行顺序调度。如:在将所有的算子融合为一个层的方案中,从层中不依赖于同块其他算子输出结果的算子开始执行,即从算子1开始执行,将1加入已执行队列,运用深度优先搜索算法进行探索,可探索到节点为(2、3、4),假如探索到算子2,由于算子2仅依赖于算子1,而算子1已经执行完毕,输出结果就绪,因此算子2可以执行。
将算子2加入到已执行队列,继续运用深度优先搜索算法,探索到算子6,然而算子6依赖于算子2与算子5的输出,虽然算子2已执行完毕,但是算子5还未执行,因此算子6无法获得其所需的所有的输入数据,将算子6加入待执行栈,算法从算子6开始反向搜索其所有依赖的输入数据。
因此探索到算子5,由于算子5依赖的算子3和算子4还未执行,同理将算子5加入待执行栈,从算子5的输入反向搜索到算子3,由于算子3的输入算子1已执行,因此将算子3可执行并加入已执行队列,算子3执行完毕后,从待执行栈中弹出栈顶算子5,检查其当前是否可执行,由于算子5还依赖于算子4,因此继续将算子5压入待执行栈。
反向搜索到算子4,由于算子4的依赖算子1已执行,依次算子4可执行并加入已执行队列,从待执行栈中弹出栈顶算子5,检查发现当前其依赖算子已全部出于已执行状态,因此算子5可执行并加入已执行队列,此时待执行栈非空,继续弹出栈顶算子6,由于其依赖算子2和算子5已执行,因此算子6当前可执行并加入已执行队列,继续探索发现无后续算子,算法终止。最终的执行顺序为已执行队列中的执行顺序即1→2→3→4→5→6。
例如:具体为通过对bank id的分配,分配的准则是尽可能复用bank id,同时未释放的bank id无法被分配。由于执行顺序为1→2→3→4→5→6,因此首先为算子1分配bankid=1。算子2分配bank id=2。由于算子1已经算子2的输出数据在后续还会被使用,因此其bank不能被释放。
在计算算子3时为算子3的输出结果分配bank id=3。在计算算子4时分配bank id=4保存输出结果,由于在算子4计算结束之后,算子1的输出结果不会再被使用,因此bankid=1被释放,再计算算子5时可以复用bank id=1保存输出结果。
再算子5执行完毕后,由于算子3与算子4的输出不会再被使用,因此释放bank id=3和bank id=4。在计算算子6时可以复用bank id=3保存算子6的输出结果,并释放bankid=2。在将所有的算子分配bank id之后,根据占用相同bank id的算子的输出数据的存储量中的最大值,将实际的片上buffer存储量按比例分配给各个bank id。
步骤S104,获取层内各算子的输入、输出调用次数及拆分策略。
本步骤中,根据融合层中算子间依赖关系,获取融合层的层内输出算子、层内输入算子和层内中间算子。层内输出算子为与其他融合层具有输出关系的算子。层内输入算子为与其他融合层具有输入关系的算子。层内中间算子为仅与层内输出算子或层内输入算子具有依赖关系的算子。如图4中,以20+30层融合为例,层内输出算子为“2、5”算子,层内输入算子为“2、3、4”算子,层内无中间算子。
根据层内输出算子的输出数据的存储地址、存储量及缓冲存储量获取缓冲存储器在缓存层内输出算子输出数据时的输出调用次数。根据输出调用次数获取层内输出算子的拆分策略。
根据层内输出算子与其他算子的依赖关系、层内输出算子的类型信息以及层内输出算子的参数信息获取层内输出算子的输入数据量。
根据输出数据量及缓冲存储量获取缓冲存储器在缓存层内输出算子输入数据时的输入调用次数。根据输入调用次数获取层内输出算子输入数据的的拆分策略。
将层内输出算子的输入数据作为与其依赖算子的输出数据。重复本步骤,直到层内中间算子及层内输入算子能够获取输出数据的输出调用次数及拆分策略、能够获取输入数据的输入调用次数及拆分策略为止。
由于实际硬件储存空间的限制,导致算子分配的内存可能无法存放所有的输出数据,因此需要对计算进行tiling,即并不是将所有的输出结果同时计算出来,而是分几个轮次,每次计算出一部分结果。
如图5所示,按w宽度方向数据划分的一个示例,例如图4中第2个算子(第2个节点)的输出为8*6,实际分配的空间可能无法存放所有的数据,因此在w宽度方向进行切分,分成2个8*3的进行计算。
在此算子切分之后,按照算子间的计算依赖关系,例如当前算子为3*3stride=1的卷积算子,8*3的输出数据依赖的输入数据为8*4的尺寸,其中具有点阵部分的数据在两次8*3运算中均被使用。
使用逆拓扑排序算法对同一个块所有算子输出数据的数据范围进行反向的递推,最终得到层中算子tiling平铺后的结果。
步骤S105,获取多个融合层对应的系统开销值。
本步骤中,将多个融合层、融合层中各算子的计算顺序以及所有融合层中输出算子、输入算子及中间算子的输出调用次数及拆分策略,部署在一个模拟硬件平台上获取多个融合层对应的系统开销值。模拟硬件平台具有一种设定的可重构处理器的系统结构。
步骤S106,获取当前融合层。
本步骤中,将多个融合层的系统开销值中最小值对应的融合层作为当前融合层。
步骤S107,编译深度学习模型。
本步骤中,根据当前融合层编译待编译深度学习模型。
本发明针对计算机体系结构中存在的访存速度成为系统瓶颈的存储墙问题,提出神经网络编译的优化方法。通过融合神经网络多层算子,将计算的中间结果保存于片上而非通过内存进行读写,可以有效地减少访存的需求,从而提升系统的执行效率。
本发明相较于其他的神经网络编译优化方法,将着眼点放在融合多层算子而非对单个算子进行数据流调度。通过搜索算法,得到的最优层间融合方案相较使用固定策略的层间融合方式取得了更快的执行速度。同时,本发明通过IR转换以及将代价模型与搜索调度模块解耦合,支持多深度学习框架以及能够有效的扩展到多硬件平台,具有较大的灵活性与适应性。
本发明针对于神经网络特别是卷积神经网络中的计算局部性以及数据复用的特点,设计了一种层间融合方案搜索方法。通过融合复杂神经网络中的多层算子,将多个算子之间的中间结果保存于片上缓存,而非通过读写内存进行数据交换,可以有效的减少对于内存单元的访问,从而显著的提升整个系统的执行效率。其中主要难点在于在复杂连接关系的网络中,寻找到一种较好的层间算子融合方案,使得融合后的计算方案能够获得较高的执行效率。
在本发明神经网络编译的优化方法的一种实施方式中,步骤S101前还包括:
步骤S100,获取待编译深度学习模型。
步骤S101中根据待编译深度学习模型获取具有设定数据结构的计算图的步骤包括:
根据待编译深度学习模型生成对应IR转换函数。通过IR转换函数将待编译深度学习模型转换为具有设定数据结构的计算图。
在本发明神经网络编译的优化方法的另一种实施方式中,步骤S102包括:
步骤S1021,多个预处理层为1、2、3......n预处理层。
步骤S1022,根据n-1预处理层获取n预处理层的融合层、根据n-1预处理层与n预处理层获取n-2预处理层的融合层........。根据2预处理层、3预处理层~和n-1预处理层获取1预处理层的融合层。
在本发明神经网络编译的优化方法的再一种实施方式中,步骤S107包括:
根据根结点的当前融合方案编译待编译深度学习模型,获取待编译深度学习模型的编译文件。
本发明的第二个方面,如图2所示,提供了一种神经网络编译的优化系统,神经网络编译的优化系统能够应用于可重构处理器的编译。可重构处理器中包括缓冲存储器。缓冲存储器具有缓冲存储量。
神经网络编译的优化系统包括:一个计算图获取单元101、一个融合层获取单元201、一个计算顺序获取单元301、一个平铺单元401、一个模拟单元501、一个当前融合层获取单元601和一个编译单元701。其中,
计算图获取单元101,其配置为根据待编译深度学习模型获取具有设定数据结构的计算图。计算图具有DAG无回路有向图属性。计算图中包括多个算子。多个算子包括:一个输入算子和一个或多个计算算子。输入算子相当于DAG无回路有向图中的根结点。
计算算子相当于DAG无回路有向图中的中间结点。获取算子属性信息和算子间依赖关系。算子属性信息包括:算子输出数据的存储地址及存储量、算子的类型信息以及算子的参数信息。算子间依赖关系相应于DAG无回路有向图的各结点间的拓扑关系。
融合层获取单元201,其配置为根据算子间依赖关系及输入算子与计算算子间的最长路径长度,分组算子为多个预处理层。将一个或多个预处理层融合为多个融合层。
计算顺序获取单元301,其配置为根据融合层中的算子间依赖关系获取融合层中的算子计算顺序。根据融合层中的算子计算顺序给算子分配缓冲存储地址及存储量。
平铺单元401,其配置为根据融合层中算子间依赖关系,获取融合层的层内输出算子、层内输入算子和层内中间算子。层内输出算子为与其他融合层具有输出关系的算子。层内输入算子为与其他融合层具有输入关系的算子。层内中间算子为仅与层内输出算子或层内输入算子具有依赖关系的算子。
根据层内输出算子的输出数据的存储地址、存储量及缓冲存储量获取缓冲存储器在缓存层内输出算子输出数据时的输出调用次数。根据输出调用次数获取层内输出算子的拆分策略。
根据层内输出算子与其他算子的依赖关系、层内输出算子的类型信息以及层内输出算子的参数信息获取层内输出算子的输入数据量。
根据输出数据量及缓冲存储量获取缓冲存储器在缓存层内输出算子输入数据时的输入调用次数。根据输入调用次数获取层内输出算子输入数据的的拆分策略。
将层内输出算子的输入数据作为与其依赖算子的输出数据。重复本步骤,直到层内中间算子及层内输入算子能够获取输出数据的输出调用次数及拆分策略、能够获取输入数据的输入调用次数及拆分策略为止。
模拟单元501,其配置为将多个融合层、融合层中各算子的计算顺序以及所有融合层中输出算子、输入算子及中间算子的输出调用次数及拆分策略,部署在一个模拟硬件平台上获取多个融合层对应的系统开销值。模拟硬件平台具有一种设定的可重构处理器的系统结构。
当前融合层获取单元601,其配置为将多个融合层的系统开销值中最小值对应的融合层作为当前融合层。
编译单元701,其配置为根据当前融合层编译待编译深度学习模型。
在本发明神经网络编译的优化系统的另一种实施方式中,其系统还包括:
一个获取单元,其配置为待编译深度学习模型。
计算图获取单元101,还其配置为根据待编译深度学习模型生成对应IR转换函数。通过IR转换函数将待编译深度学习模型转换为具有设定数据结构的计算图。
在本发明神经网络编译的优化系统的另一种实施方式中,融合层获取单元201还配置为:
多个预处理层为1、2、3......n预处理层。
根据n-1预处理层获取n预处理层的融合层、根据n-1预处理层与n预处理层获取n-2预处理层的融合层........。根据2预处理层、3预处理层~和n-1预处理层获取1预处理层的融合层。
在本发明神经网络编译的优化系统的再一种实施方式中,编译单元701还配置为:根据根结点的当前融合方案编译待编译深度学习模型,获取待编译深度学习模型的编译文件。
由此可知,本发明的有益效果在于:
1)性能高效:本发明基于多种卷积神经网络进行测试,通过对于使用预处理方式的算子融合方法得到了明显的计算效率提升。
2)方法通用性强:本发明所使用的解耦合方法可以有效的适配多种深度学习框架以及多种底层的硬件平台,通过将深度学习框架定义的模型转换为中间表示,并基于中间表示进行编译优化以及底层硬件指令的转换可以有效的提升本发明的应用范围。
3)方法实用性强:本发明所使用的基于动态规划的搜索方法相较穷举的搜索算法在时间复杂度上有明显优势,并且使得在复杂的网络连接中穷举方法不可用的问题得以解决,在搜索结果上,与穷举方法搜索得到最优的组合策略相比差距不大,具有很好的实用性。
应当理解,虽然本说明书是按照各个实施方式中描述的,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。
Claims (8)
1.一种神经网络编译的优化方法,其特征在于,所述神经网络编译的优化方法能够应用于可重构处理器的编译;所述可重构处理器中包括缓冲存储器;所述缓冲存储器具有缓冲存储量;
所述神经网络编译的优化方法包括:
步骤S101,根据待编译深度学习模型获取具有设定数据结构的计算图;所述计算图具有DAG无回路有向图属性;所述计算图中包括多个算子;所述多个算子包括:一个输入算子和一个或多个计算算子;所述输入算子相当于所述DAG无回路有向图中的根结点;所述计算算子相当于所述DAG无回路有向图中的中间结点;获取所述算子属性信息和所述算子间依赖关系;所述算子属性信息包括:算子输出数据的存储地址及存储量、算子的类型信息以及算子的参数信息;所述算子间依赖关系相应于所述DAG无回路有向图的各结点间的拓扑关系;
步骤S102,根据所述算子间依赖关系及所述输入算子与所述计算算子间的最长路径长度,分组所述算子为多个预处理层;将所述一个或多个预处理层融合为多个融合层;
步骤S103,根据所述融合层中的算子间依赖关系获取所述融合层中的算子计算顺序;根据所述融合层中的算子计算顺序给所述算子分配缓冲存储地址及存储量;
步骤S104,根据所述融合层中算子间依赖关系,获取融合层的层内输出算子、层内输入算子和层内中间算子;所述层内输出算子为与其他融合层具有输出关系的算子;所述层内输入算子为与其他融合层具有输入关系的算子;所述层内中间算子为仅与所述层内输出算子或层内输入算子具有依赖关系的算子;
根据所述层内输出算子的输出数据的存储地址、存储量及所述缓冲存储量获取所述缓冲存储器在缓存所述层内输出算子输出数据时的输出调用次数;根据所述输出调用次数获取所述层内输出算子的拆分策略;
根据所述层内输出算子与其他算子的依赖关系、层内输出算子的类型信息以及层内输出算子的参数信息获取所述层内输出算子的输入数据量;
根据所述输出数据量及所述缓冲存储量获取所述缓冲存储器在缓存所述层内输出算子输入数据时的输入调用次数;根据所述输入调用次数获取所述层内输出算子输入数据的的拆分策略;
将所述层内输出算子的输入数据作为与其依赖算子的输出数据;重复本步骤,直到所述层内中间算子及层内输入算子能够获取输出数据的输出调用次数及拆分策略、能够获取输入数据的输入调用次数及拆分策略为止;
步骤S105,将所述多个融合层、所述融合层中各算子的计算顺序以及所有融合层中输出算子、输入算子及中间算子的输出调用次数及拆分策略,部署在一个模拟硬件平台上获取多个融合层对应的系统开销值;所述模拟硬件平台具有一种设定的可重构处理器的系统结构;
步骤S106,将所述多个融合层的系统开销值中最小值对应的融合层作为当前融合层;
步骤S107,根据所述当前融合层编译所述待编译深度学习模型。
2.根据权利要求1所述的优化方法,其特征在于,所述步骤S101前还包括:
步骤S100,获取待编译深度学习模型;
所述步骤S101中根据待编译深度学习模型获取具有设定数据结构的计算图的步骤包括:
根据所述待编译深度学习模型生成对应IR转换函数;通过IR转换函数将待编译深度学习模型转换为具有设定数据结构的计算图。
3.根据权利要求1所述的优化方法,其特征在于,所述步骤S102包括:
步骤S1021,所述多个预处理层为1、2、3......n预处理层;
步骤S1022,根据n-1预处理层获取n预处理层的融合层、根据n-1预处理层与n预处理层获取n-2预处理层的融合层........;根据2预处理层、3预处理层~和n-1预处理层获取1预处理层的融合层。
4.根据权利要求1所述的优化方法,其特征在于,所述步骤S107包括:
根据所述根结点的当前融合方案编译所述待编译深度学习模型,获取所述待编译深度学习模型的编译文件。
5.一种神经网络编译的优化系统,其特征在于,所述神经网络编译的优化系统能够应用于可重构处理器的编译;所述可重构处理器中包括缓冲存储器;所述缓冲存储器具有缓冲存储量;
所述神经网络编译的优化系统包括:一个计算图获取单元、一个融合层获取单元、一个计算顺序获取单元、一个平铺单元、一个模拟单元、一个当前融合层获取单元和一个编译单元;其中,
所述计算图获取单元,其配置为根据待编译深度学习模型获取具有设定数据结构的计算图;所述计算图具有DAG无回路有向图属性;所述计算图中包括多个算子;所述多个算子包括:一个输入算子和一个或多个计算算子;所述输入算子相当于所述DAG无回路有向图中的根结点;
所述计算算子相当于所述DAG无回路有向图中的中间结点;获取所述算子属性信息和所述算子间依赖关系;所述算子属性信息包括:算子输出数据的存储地址及存储量、算子的类型信息以及算子的参数信息;所述算子间依赖关系相应于所述DAG无回路有向图的各结点间的拓扑关系;
所述融合层获取单元,其配置为根据所述算子间依赖关系及所述输入算子与所述计算算子间的最长路径长度,分组所述算子为多个预处理层;将所述一个或多个预处理层融合为多个融合层;
所述计算顺序获取单元,其配置为根据所述融合层中的算子间依赖关系获取所述融合层中的算子计算顺序;根据所述融合层中的算子计算顺序给所述算子分配缓冲存储地址及存储量;
所述平铺单元,其配置为根据所述融合层中算子间依赖关系,获取融合层的层内输出算子、层内输入算子和层内中间算子;所述层内输出算子为与其他融合层具有输出关系的算子;所述层内输入算子为与其他融合层具有输入关系的算子;所述层内中间算子为仅与所述层内输出算子或层内输入算子具有依赖关系的算子;
根据所述层内输出算子的输出数据的存储地址、存储量及所述缓冲存储量获取所述缓冲存储器在缓存所述层内输出算子输出数据时的输出调用次数;根据所述输出调用次数获取所述层内输出算子的拆分策略;
根据所述层内输出算子与其他算子的依赖关系、层内输出算子的类型信息以及层内输出算子的参数信息获取所述层内输出算子的输入数据量;
根据所述输出数据量及所述缓冲存储量获取所述缓冲存储器在缓存所述层内输出算子输入数据时的输入调用次数;根据所述输入调用次数获取所述层内输出算子输入数据的的拆分策略;
将所述层内输出算子的输入数据作为与其依赖算子的输出数据;重复本步骤,直到所述层内中间算子及层内输入算子能够获取输出数据的输出调用次数及拆分策略、能够获取输入数据的输入调用次数及拆分策略为止;
所述模拟单元,其配置为将所述多个融合层、所述融合层中各算子的计算顺序以及所有融合层中输出算子、输入算子及中间算子的输出调用次数及拆分策略,部署在一个模拟硬件平台上获取多个融合层对应的系统开销值;所述模拟硬件平台具有一种设定的可重构处理器的系统结构;
所述当前融合层获取单元,其配置为将所述多个融合层的系统开销值中最小值对应的融合层作为当前融合层;
所述编译单元,其配置为根据所述当前融合层编译所述待编译深度学习模型。
6.根据权利要求5所述的优化系统,其特征在于,其还包括:
一个获取单元,其配置为待编译深度学习模型;
所述计算图获取单元,还其配置为根据所述待编译深度学习模型生成对应IR转换函数;通过IR转换函数将待编译深度学习模型转换为具有设定数据结构的计算图。
7.根据权利要求5所述的优化系统,其特征在于,所述融合层获取单元还配置为:
所述多个预处理层为1、2、3......n预处理层;
根据n-1预处理层获取n预处理层的融合层、根据n-1预处理层与n预处理层获取n-2预处理层的融合层........;根据2预处理层、3预处理层~和n-1预处理层获取1预处理层的融合层。
8.根据权利要求5所述的优化系统,其特征在于,所述编译单元还配置为:根据所述根结点的当前融合方案编译所述待编译深度学习模型,获取所述待编译深度学习模型的编译文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011637016.5A CN112711422B (zh) | 2020-12-31 | 2020-12-31 | 一种神经网络编译的优化方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011637016.5A CN112711422B (zh) | 2020-12-31 | 2020-12-31 | 一种神经网络编译的优化方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112711422A true CN112711422A (zh) | 2021-04-27 |
CN112711422B CN112711422B (zh) | 2024-01-19 |
Family
ID=75547899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011637016.5A Active CN112711422B (zh) | 2020-12-31 | 2020-12-31 | 一种神经网络编译的优化方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112711422B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113031966A (zh) * | 2021-05-20 | 2021-06-25 | 之江实验室 | 一种智能选择编译加速库的深度学习编译优化方法 |
CN113254867A (zh) * | 2021-06-28 | 2021-08-13 | 中科弘云科技(北京)有限公司 | 一种自动配置模板生成方法、装置、服务器及存储介质 |
CN113657584A (zh) * | 2021-08-31 | 2021-11-16 | 安谋科技(中国)有限公司 | 神经网络模型计算方法、数据处理方法、电子设备及介质 |
CN113703741A (zh) * | 2021-10-29 | 2021-11-26 | 深圳思谋信息科技有限公司 | 神经网络编译器配置方法、装置、计算机设备和存储介质 |
CN113703775A (zh) * | 2021-08-31 | 2021-11-26 | 上海阵量智能科技有限公司 | 一种编译方法、装置、设备及存储介质 |
CN113778459A (zh) * | 2021-09-08 | 2021-12-10 | 北京航空航天大学杭州创新研究院 | 一种在fpga和dsp上部署优化的算子库设计方法 |
CN114328098A (zh) * | 2021-12-23 | 2022-04-12 | 北京百度网讯科技有限公司 | 一种慢节点检测方法、装置、电子设备及存储介质 |
CN114428616A (zh) * | 2022-04-01 | 2022-05-03 | 北京清微智能信息技术有限公司 | 一种神经网络编译阶段优化置换代价的方法 |
CN115268936A (zh) * | 2022-09-27 | 2022-11-01 | 之江实验室 | 一种用于计算图编译的优化方法及装置 |
CN115408568A (zh) * | 2021-05-26 | 2022-11-29 | 中科寒武纪科技股份有限公司 | 一种对神经网络的算子进行融合的方法和相关产品 |
CN115904394A (zh) * | 2023-03-02 | 2023-04-04 | 之江实验室 | 一种面向众核架构的神经网络增量编译方法和装置 |
CN116306856A (zh) * | 2023-05-17 | 2023-06-23 | 之江实验室 | 一种基于搜索的深度学习模型部署方法及装置 |
CN116665020A (zh) * | 2023-07-31 | 2023-08-29 | 国网浙江省电力有限公司 | 基于算子融合的图像识别方法、装置、设备及存储介质 |
CN116775274A (zh) * | 2023-03-24 | 2023-09-19 | 美的集团(上海)有限公司 | 内存优化方法、装置、设备、产品、存储介质和芯片 |
CN116991564A (zh) * | 2023-09-28 | 2023-11-03 | 之江实验室 | 面向异构双核mcu的算子内并行加速方法 |
CN117492766A (zh) * | 2023-12-27 | 2024-02-02 | 深圳市九天睿芯科技有限公司 | 编译方法、编译器、神经网络加速器、芯片及电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170097815A1 (en) * | 2015-10-05 | 2017-04-06 | Reservoir Labs, Inc. | Systems and methods for scalable hierarchical polyhedral compilation |
US20190303762A1 (en) * | 2018-03-30 | 2019-10-03 | Xilinx, Inc. | Methods of optimization of computational graphs of neural networks |
US20190392296A1 (en) * | 2019-06-28 | 2019-12-26 | John Brady | Hardware agnostic deep neural network compiler |
US20190391796A1 (en) * | 2019-06-28 | 2019-12-26 | Intel Corporation | Control of scheduling dependencies by a neural network compiler |
CN110764744A (zh) * | 2018-07-25 | 2020-02-07 | 赛灵思公司 | 用于神经网络计算的中间表示生成方法和装置 |
CN110766147A (zh) * | 2018-07-25 | 2020-02-07 | 赛灵思公司 | 神经网络编译器架构及编译方法 |
CN111062467A (zh) * | 2019-12-18 | 2020-04-24 | 开放智能机器(上海)有限公司 | 一种应用于ai异构编译器的自动切分神经网络子图方法 |
CN111340175A (zh) * | 2018-12-18 | 2020-06-26 | 赛灵思公司 | 图重写的处理方法及装置、计算设备及可读介质 |
CN111338635A (zh) * | 2020-02-20 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 计算图的图编译方法、装置、设备及存储介质 |
US20200210821A1 (en) * | 2018-12-29 | 2020-07-02 | Cambricon Technologies Corporation Limited | Data processing method, device, electronic device and readable storage medium |
-
2020
- 2020-12-31 CN CN202011637016.5A patent/CN112711422B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170097815A1 (en) * | 2015-10-05 | 2017-04-06 | Reservoir Labs, Inc. | Systems and methods for scalable hierarchical polyhedral compilation |
US20190303762A1 (en) * | 2018-03-30 | 2019-10-03 | Xilinx, Inc. | Methods of optimization of computational graphs of neural networks |
CN110764744A (zh) * | 2018-07-25 | 2020-02-07 | 赛灵思公司 | 用于神经网络计算的中间表示生成方法和装置 |
CN110766147A (zh) * | 2018-07-25 | 2020-02-07 | 赛灵思公司 | 神经网络编译器架构及编译方法 |
CN111340175A (zh) * | 2018-12-18 | 2020-06-26 | 赛灵思公司 | 图重写的处理方法及装置、计算设备及可读介质 |
US20200210821A1 (en) * | 2018-12-29 | 2020-07-02 | Cambricon Technologies Corporation Limited | Data processing method, device, electronic device and readable storage medium |
US20190392296A1 (en) * | 2019-06-28 | 2019-12-26 | John Brady | Hardware agnostic deep neural network compiler |
US20190391796A1 (en) * | 2019-06-28 | 2019-12-26 | Intel Corporation | Control of scheduling dependencies by a neural network compiler |
CN111062467A (zh) * | 2019-12-18 | 2020-04-24 | 开放智能机器(上海)有限公司 | 一种应用于ai异构编译器的自动切分神经网络子图方法 |
CN111338635A (zh) * | 2020-02-20 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 计算图的图编译方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
胡浩;沈莉;周清雷;巩令钦;: "基于LLVM编译器的节点融合优化方法", 计算机科学, no. 1 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113031966A (zh) * | 2021-05-20 | 2021-06-25 | 之江实验室 | 一种智能选择编译加速库的深度学习编译优化方法 |
CN115408568B (zh) * | 2021-05-26 | 2024-04-05 | 中科寒武纪科技股份有限公司 | 一种对神经网络的算子进行融合的方法和相关产品 |
CN115408568A (zh) * | 2021-05-26 | 2022-11-29 | 中科寒武纪科技股份有限公司 | 一种对神经网络的算子进行融合的方法和相关产品 |
WO2022247880A1 (zh) * | 2021-05-26 | 2022-12-01 | 中科寒武纪科技股份有限公司 | 一种对神经网络的算子进行融合的方法和相关产品 |
CN113254867A (zh) * | 2021-06-28 | 2021-08-13 | 中科弘云科技(北京)有限公司 | 一种自动配置模板生成方法、装置、服务器及存储介质 |
WO2023029589A1 (zh) * | 2021-08-31 | 2023-03-09 | 上海商汤智能科技有限公司 | 用于神经网络编译的方法、装置、设备及存储介质 |
CN113657584A (zh) * | 2021-08-31 | 2021-11-16 | 安谋科技(中国)有限公司 | 神经网络模型计算方法、数据处理方法、电子设备及介质 |
CN113703775B (zh) * | 2021-08-31 | 2023-11-28 | 上海阵量智能科技有限公司 | 一种编译方法、装置、设备及存储介质 |
CN113703775A (zh) * | 2021-08-31 | 2021-11-26 | 上海阵量智能科技有限公司 | 一种编译方法、装置、设备及存储介质 |
CN113657584B (zh) * | 2021-08-31 | 2024-04-09 | 安谋科技(中国)有限公司 | 神经网络模型计算方法、数据处理方法、电子设备及介质 |
CN113778459A (zh) * | 2021-09-08 | 2021-12-10 | 北京航空航天大学杭州创新研究院 | 一种在fpga和dsp上部署优化的算子库设计方法 |
CN113703741A (zh) * | 2021-10-29 | 2021-11-26 | 深圳思谋信息科技有限公司 | 神经网络编译器配置方法、装置、计算机设备和存储介质 |
CN114328098A (zh) * | 2021-12-23 | 2022-04-12 | 北京百度网讯科技有限公司 | 一种慢节点检测方法、装置、电子设备及存储介质 |
CN114428616A (zh) * | 2022-04-01 | 2022-05-03 | 北京清微智能信息技术有限公司 | 一种神经网络编译阶段优化置换代价的方法 |
CN115268936A (zh) * | 2022-09-27 | 2022-11-01 | 之江实验室 | 一种用于计算图编译的优化方法及装置 |
CN115904394A (zh) * | 2023-03-02 | 2023-04-04 | 之江实验室 | 一种面向众核架构的神经网络增量编译方法和装置 |
CN115904394B (zh) * | 2023-03-02 | 2023-07-04 | 之江实验室 | 一种面向众核架构的神经网络增量编译方法和装置 |
CN116775274A (zh) * | 2023-03-24 | 2023-09-19 | 美的集团(上海)有限公司 | 内存优化方法、装置、设备、产品、存储介质和芯片 |
CN116306856B (zh) * | 2023-05-17 | 2023-09-05 | 之江实验室 | 一种基于搜索的深度学习模型部署方法及装置 |
CN116306856A (zh) * | 2023-05-17 | 2023-06-23 | 之江实验室 | 一种基于搜索的深度学习模型部署方法及装置 |
CN116665020A (zh) * | 2023-07-31 | 2023-08-29 | 国网浙江省电力有限公司 | 基于算子融合的图像识别方法、装置、设备及存储介质 |
CN116665020B (zh) * | 2023-07-31 | 2024-04-12 | 国网浙江省电力有限公司 | 基于算子融合的图像识别方法、装置、设备及存储介质 |
CN116991564A (zh) * | 2023-09-28 | 2023-11-03 | 之江实验室 | 面向异构双核mcu的算子内并行加速方法 |
CN116991564B (zh) * | 2023-09-28 | 2024-01-09 | 之江实验室 | 面向异构双核mcu的算子内并行加速方法 |
CN117492766A (zh) * | 2023-12-27 | 2024-02-02 | 深圳市九天睿芯科技有限公司 | 编译方法、编译器、神经网络加速器、芯片及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112711422B (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112711422B (zh) | 一种神经网络编译的优化方法及系统 | |
Cloutier et al. | The combination of scheduling, allocation, and mapping in a single algorithm | |
Cierniak et al. | Compile-time scheduling algorithms for a heterogeneous network of workstations | |
JP2010033561A (ja) | マルチプロセッサ・システム上でデータ・セットを区分化およびソートするための方法および装置 | |
CN111860816A (zh) | 神经网络模型的编译方法、装置、设备及存储介质 | |
CN115421897B (zh) | 一种面向芯粒的深度神经网络流水线并行调度方法及装置 | |
WO1995031779A1 (en) | Instruction creation device | |
KR20190054449A (ko) | 이종 클러스터 환경에서 신경망 트레이닝 가속화를 위한 연산 노드 배치 기법 | |
CN112015765B (zh) | 基于缓存价值的Spark缓存淘汰方法及系统 | |
CN113568599A (zh) | 用于处理计算作业的方法、电子设备和计算机程序产品 | |
CN105404611B (zh) | 一种基于矩阵模型的多计算引擎的自动选择方法 | |
CN115062784A (zh) | 针对神经网络算子融合的端云协同推理方法及装置 | |
CN115481718A (zh) | 一种基于精简算子集的深度学习图算一体优化器 | |
Ranaweera et al. | Scheduling of periodic time critical applications for pipelined execution on heterogeneous systems | |
CN104866297B (zh) | 一种优化核函数的方法和装置 | |
CN116862019B (zh) | 基于数据并行范式的模型训练方法及装置 | |
Jeon et al. | Loop pipelining in hardware-software partitioning | |
CN110399124B (zh) | 一种代码生成方法、装置、设备及可读存储介质 | |
CN108334532A (zh) | 一种基于Spark的Eclat并行化方法、系统及装置 | |
WO2021219211A1 (en) | Memory allocation in a neural network | |
CN105573717B (zh) | 一种面向多核处理器的程序划分方法及装置 | |
CN109685203A (zh) | 数据处理方法、装置、计算机系统及存储介质 | |
US20170090820A1 (en) | Method and device for operating a many-core system | |
CN109726797B (zh) | 数据处理方法、装置、计算机系统及存储介质 | |
Guo et al. | Minimizing the makespan for unrelated parallel machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |