CN115098107B - 神经网络任务的代码生成方法和装置 - Google Patents
神经网络任务的代码生成方法和装置 Download PDFInfo
- Publication number
- CN115098107B CN115098107B CN202210705825.8A CN202210705825A CN115098107B CN 115098107 B CN115098107 B CN 115098107B CN 202210705825 A CN202210705825 A CN 202210705825A CN 115098107 B CN115098107 B CN 115098107B
- Authority
- CN
- China
- Prior art keywords
- instruction
- data
- task
- computing
- subtask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000010586 diagram Methods 0.000 claims abstract description 48
- 238000013507 mapping Methods 0.000 claims abstract description 30
- 230000015654 memory Effects 0.000 claims description 87
- 238000012545 processing Methods 0.000 claims description 63
- 238000004364 calculation method Methods 0.000 claims description 57
- 238000003860 storage Methods 0.000 claims description 41
- 230000003068 static effect Effects 0.000 claims description 29
- 238000005457 optimization Methods 0.000 claims description 18
- 230000005540 biological transmission Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 13
- 238000004891 communication Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 210000003050 axon Anatomy 0.000 description 4
- 210000005056 cell body Anatomy 0.000 description 4
- 230000005291 magnetic effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 210000001787 dendrite Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000006386 neutralization reaction Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/44—Encoding
- G06F8/447—Target code generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/44—Encoding
- G06F8/443—Optimisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44505—Configuring for program initiating, e.g. using registry, configuration files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
本公开涉及一种神经网络任务的代码生成方法和装置,通过确定神经网络任务对应的任务映射图,根据执行神经网络任务中每个子任务的计算核的硬件位置初始化硬件配置文件,硬件配置文件中包括每个计算核的指令流以及寄存器参数。再根据任务映射图配置硬件配置文件中每个计算核对应指令流中的计算指令、数据读写指令、数据移动指令、路由指令中至少一个子任务指令以及寄存器参数,得到神经网络任务的执行代码。本公开实施例提供了一种面向神经网络任务的众核架构的代码生成方案,通过确定神经网络任务对应任务映射图,并根据任务映射图映射的方式配置每个计算核的指令流和寄存器参数,得到包括多个计算核的硬件系统的可执行代码。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种神经网络任务的代码生成方法和装置。
背景技术
众核芯片是由许多可独立运行的核心处理单元组成的芯片,每个处理单元都可以单独配置和执行,使众核芯片具备高度并行性、灵活性和可扩展性。基于上述特性,对于计算量庞大且复杂的神经网络计算任务的执行,众核芯片有着很大的应用价值。在众核芯片执行神经网络计算任务时,代码生成是其中的一个关键步骤,主要任务是把承载神经网络计算任务的高级语言经过语法分析后或优化后的中间代码变换成对应硬件的目标代码。而目前现有的代码生成方案不适用于面向神经网络计算的众核架构。
发明内容
有鉴于此,本公开提出了一种神经网络任务的代码生成方法和装置,旨在提供一种面向神经网络任务的众核架构的代码生成方案。
根据本公开的第一方面,提供了一种神经网络任务的代码生成方法,用于包括多个计算核的电子设备,所述方法包括:
确定神经网络任务对应的任务映射图,所述任务映射图用于表征所述神经网络任务中每个子任务的类型、执行每个所述子任务的计算核、所述计算核执行对应子任务的时间顺序、以及每个所述子任务的参数信息;
根据执行每个所述子任务的计算核的硬件位置初始化硬件配置文件,所述硬件配置文件中包括每个所述计算核的指令流以及寄存器参数,所述指令流包括计算指令、数据读写指令、数据移动指令和路由指令中至少一个子任务指令;
根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令中至少一个子任务指令以及寄存器参数,得到所述神经网络任务的执行代码。
在一种可能的实现方式中,所述根据执行每个所述子任务的计算核的硬件位置初始化硬件配置文件,包括:
根据所述任务映射图确定所述神经网络任务中每个子任务对应的计算核为目标计算核;
初始化包括每个所述目标计算核对应配置信息的硬件配置文件,每个所述计算核的配置信息在所述硬件配置文件中的位置根据所述计算核在所述电子设备中的硬件位置确定,所述配置信息中包括所述计算核对应的指令流和寄存器参数。
在一种可能的实现方式中,所述计算指令根据所述计算核对应子任务的参数信息配置。
在一种可能的实现方式中,所述数据读写指令中包括内存地址、内存长度和读写方式,所述内存地址和内存长度通过预设的内存分配规则和对应的参数信息分配得到。
在一种可能的实现方式中,所述内存地址对应的内存区域中包括数据区、代码区和收发区,所述数据区用于存储动态数据和/或静态数据,所述代码区用于存储所述计算核执行的指令流和指令参数,所述收发区用于存储所述计算核发送的数据和/或接收的数据。
在一种可能的实现方式中,所述数据移动指令用于在计算核内进行数据搬运,所述路由指令用于在不同计算核之间进行数据传输。
在一种可能的实现方式中,所述寄存器参数根据每个所述子任务对应的计算核的硬件位置,以及每个所述计算核执行对应子任务的时间顺序确定。
在一种可能的实现方式中,所述根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令以及寄存器参数,得到所述神经网络任务的执行代码,包括:
根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令以及寄存器参数;
根据预设的优化规则对完成配置的所述硬件配置文件进行优化,得到所述神经网络任务的执行代码。
在一种可能的实现方式中,所述预设的优化规则通过以下至少一种方式对硬件配置文件进行优化:生成多网络执行控制信息、调试硬件开关、关闭结束任务处理的计算核、填充静态数据、优化计算核中组件的流水线以及生成多个计算核的输入和/或输出的参数配置。根据本公开的第二方面,提供了一种神经网络任务的代码生成装置,用于包括多个计算核的电子设备,所装置包括:
映射图确定模块,用于确定神经网络任务对应的任务映射图,所述任务映射图用于表征所述神经网络任务中每个子任务的类型、执行每个所述子任务的计算核、所述计算核执行对应子任务的时间顺序、以及每个所述子任务的参数信息;
文件初始化模块,用于根据执行每个所述子任务的计算核的硬件位置初始化硬件配置文件,所述硬件配置文件中包括每个所述计算核的指令流以及寄存器参数,所述指令流包括计算指令、数据读写指令、数据移动指令和路由指令中至少一个子任务指令;
代码生成模块,用于根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令中至少一个子任务指令以及寄存器参数,得到所述神经网络任务的执行代码。
在一种可能的实现方式中,所述文件初始化模块,包括:
计算核确定子模块,用于根据所述任务映射图确定所述神经网络任务中每个子任务对应的计算核为目标计算核;
文件初始化子模块,用于初始化包括每个所述目标计算核对应配置信息的硬件配置文件,每个所述计算核的配置信息在所述硬件配置文件中的位置根据所述计算核在所述电子设备中的硬件位置确定,所述配置信息中包括所述计算核对应的指令流和寄存器参数。
在一种可能的实现方式中,所述计算指令根据所述计算核对应子任务的参数信息配置。
在一种可能的实现方式中,所述数据读写指令中包括内存地址、内存长度和读写方式,所述内存地址和内存长度通过预设的内存分配规则和对应的参数信息分配得到。
在一种可能的实现方式中,所述内存地址对应的内存区域中包括数据区、代码区和收发区,所述数据区用于存储动态数据和/或静态数据,所述代码区用于存储所述计算核执行的指令流和指令参数,所述收发区用于存储所述计算核发送的数据和/或接收的数据。
在一种可能的实现方式中,所述数据移动指令用于在计算核内进行数据搬运,所述路由指令用于在不同计算核之间进行数据传输。
在一种可能的实现方式中,所述寄存器参数根据每个所述子任务对应的计算核的硬件位置,以及每个所述计算核执行对应子任务的时间顺序确定。
在一种可能的实现方式中,所述代码生成模块,包括:
参数配置子模块,用于根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令以及寄存器参数;
文件优化子模块,用于根据预设的优化规则对完成配置的所述硬件配置文件进行优化,得到所述神经网络任务的执行代码。
在一种可能的实现方式中,所述预设的优化规则通过以下至少一种方式对硬件配置文件进行优化:生成多网络执行控制信息、调试硬件开关、关闭结束任务处理的计算核、填充静态数据、优化计算核中组件的流水线以及生成多个计算核的输入和/或输出的参数配置。
根据本公开的第三方面,提供了一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为在执行所述存储器存储的指令时,实现上述方法。
根据本公开的第四方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时实现上述方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机可读代码,或者承载有计算机可读代码的非易失性计算机可读存储介质,当所述计算机可读代码在电子设备的处理器中运行时,所述电子设备中的处理器执行上述方法。
本公开实施例提供了一种面向神经网络任务的众核架构的代码生成方案,通过确定神经网络任务对应任务映射图,并根据任务映射图映射的方式配置每个计算核的指令流和寄存器参数,得到包括多个计算核的硬件系统的可执行代码。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开实施例的一种神经网络任务的代码生成方法的流程图;
图2示出根据本公开实施例的一种计算核硬件分布结构的示意图;
图3示出根据本公开实施例的一种内存区域的示意图;
图4示出根据本公开实施例的一种神经网络任务的代码生成过程的示意图;
图5示出根据本公开实施例的一种神经网络任务的代码生成装置的示意图;
图6示出根据本公开实施例的一种电子设备的示意图;
图7示出根据本公开实施例的一种电子设备的示意图;
图8示出根据本公开实施例的一种电子设备的示意图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
在一种可能的实现方式中,本公开实施例的神经网络任务的代码生成方法可以由包括多个计算核的终端设备、服务器以及类脑计算机等电子设备执行。其中,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字助理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等固定或移动终端。服务器可以为单独的服务器或多个服务器组成的服务器集群。类脑计算机可以为包括多个计算核的神经形态计算设备,借鉴生物神经系统的处理模式和结构进行计算处理。本公开实施例可以通过电子设备中的处理器调用存储器中存储的计算机可读指令的方式来实现该方法。
本公开实施例的神经网络任务的代码生成方法可以应用于任意神经网络任务,例如生成人工神经网络任务对应硬件代码的应用场景、生成脉冲神经网络任务对应硬件代码的应用场景以及生成人工神经网络和脉冲神经网络混合建模得到的混合神经网络任务对应硬件代码的应用场景。
图1示出根据本公开实施例的一种神经网络任务的代码生成方法的流程图。如图1所示,本公开实施例的神经网络任务的代码生成方法可以包括以下步骤S10-S30。
步骤S10、确定神经网络任务对应的任务映射图。
在一种可能的实现方式中,电子设备可以确定与一个或多个神经网络任务对应的任务映射图,该任务映射图用于表征对应的至少一个神经网络任务的信息,可以包括神经网络任务中包括的每个子任务的类型、执行神经网络任务中每个子任务的计算核、每个计算核执行对应子任务的时间顺序、以及每个子任务的参数信息。其中,神经网络任务中包括的子任务可以为计算任务、数据读写任务、数据移动任务以及路由任务。任务映射图可以通过一个行表征计算核位置、列表征执行时间的表格表示,表格中每个单元内容可以包括对应位置的计算核在对应时间执行的子任务、子任务类型和子任务的参数信息。
可选地,在神经网络任务的子任务中,计算任务用于对神经网络任务中的向量、矩阵、张量等数据进行计算,数据读写任务用于存储数据或读取数据,数据移动任务用于在计算核内存储空间内部进行数据移动,路由任务用于在不同数据核之间进行数据通信传输。任务映射图中可以通过对应计算核的标识、或者位置等唯一对应的信息表征执行每个子任务的计算核。每个子任务的参数信息表征对应任务的任意参数。其中,在子任务为计算任务的情况下,参数信息可以包括计算任务的计算精度、MAC(Multiplier and Accumulation,乘累加单元)阵列参数、计算规模的参数以及当前计算任务所需的特征参数。例如,在计算任务为卷积计算任务的情况下,参数信息包括的计算精度可以为int8、int32、float32等数据类型,MAC阵列参数可以包括计算在MAC阵列的展开方式以及数据的路径规划,计算规模的参数可以包括输入特征图尺寸、卷积核尺寸以及输出特征图尺寸等,当前计算任务所需的特征参数可以包括填充、步长以及膨胀系数等。在子任务为数据读写任务的情况下,参数信息可以包括需要读取或写入的数据块的形状以及类型。在子任务为数据移动任务的情况下,参数信息还可以包括移动类型,例如多输入单输出、单输入多输出以及单输入单输出等。在子任务为路由指令的情况下,参数信息可以包括指令参数和路由表参数。例如,指令参数可以包括是否发送/接受、数据包个数、数据来源、数据大小、中继/多播模式和同步异步模式等参数,路由表参数可以包括接收数据的计算核位置、接收数据的计算核中存储数据的位置以及其他细节参数等。
可选地,电子设备可以通过任意方式确定神经网络任务对应的任务映射图。例如,电子设备可以通过接收等方式直接获取神经网络任务对应的任务映射图,或者在接收到至少一个神经网络任务后将神经网络任务中每个子任务映射到电子设备中对应的计算核得到。其中,电子设备中包括多个计算核,每个计算核可以分布在同一芯片或不同芯片上。即电子设备中可以包括单张用于执行神经网络任务的芯片或多张用于执行神经网络任务的芯片组成的芯片阵列。其中,每个芯片中均包括多个计算核。
在一种可能的实现方式中,任务映射图中包括的子任务还可以为计算任务、数据读写任务、数据移动任务以及路由任务中的至少两项的组合。
步骤S20、根据执行每个所述子任务的计算核的硬件位置初始化硬件配置文件。
在一种可能的实现方式中,电子设备在确定任务映射图后,根据其中执行每个子任务的计算核在电子设备中的硬件位置初始化硬件配置文件。其中,计算核在电子设备中的硬件位置包括计算核在一张芯片中的位置、以及计算核所在芯片在整个芯片阵列中的位置。硬件配置文件中包括每个执行子任务的计算核的指令流以及寄存器参数。指令流中可以包括计算指令、数据读写指令、数据移动指令和路由指令中至少一个子任务指令,用于控制当前计算核执行对应的计算任务、数据读写任务、数据移动任务和路由任务中的至少一种任务。
可选地,每个计算核具有至少一个寄存器,用于存放表征计算核状态或计算核中处理部件状态的二进制代码,每个计算核对应寄存器参数为对应寄存器中的二进制代码。进一步地,每个计算核对应的寄存器可以包括芯片级的寄存器和核级的寄存器。其中,芯片级的寄存器设置在芯片上,位于芯片中每个计算核的外部。包括当前芯片中各计算核的触发控制寄存器、核分组寄存器以及外部通信寄存器等。核级的寄存器设置在计算核内部,包括核状态控制寄存器、核使能寄存器和处理组件间流水执行寄存器等。
进一步地,电子设备初始化硬件配置文件的过程可以包括根据任务映射图确定神经网络任务中每个子任务对应的计算核为目标计算核。再初始化包括每个目标计算核对应配置信息的硬件配置文件,每个计算核的配置信息在所述硬件配置文件中的位置根据计算核在电子设备中的硬件位置确定,配置信息中包括所述计算核对应的指令流和寄存器参数。可选地,初始化得到硬件配置文件中每个计算核的配置信息中指令流以及寄存器参数可以为空白信息,再根据任务映射图的内容进行填充。或者,配置信息中指令流以及寄存器参数还可以为预设的初始信息,再根据任务映射图的内容进行修改。
图2示出根据本公开实施例的一种计算核硬件分布结构的示意图。如图2所示,执行本公开实施例神经网络任务的代码生成方法的电子设备中包括至少一个芯片。其中,每个芯片中可以包括多个计算核结构,每个计算核之间均可以互相通信连接。整个芯片具有一个全局存储单元,以及多个计算核共享的共享存储单元。可选地,每个计算核内部还包括作为私有存储单元的存储部件和包括计算组件、控制组件、路由组件的处理部件。其中,处理部件可以是MAC阵列或标量/向量/矩阵处理单元,私有存储单元可以由SRAM(StaticRandom-Access Memory,静态随机存取存储器)和RRAM(Resistive Random-AccessMemory,阻变式存储器)组成,控制组件用于控制计算核对应指令序列的执行以及每个组件的状态设置,路由组件用于通过片上网络向其他计算核发送数据或者接收其他计算核发送的数据。电子设备可以直接根据当前芯片中计算核硬件分布结构生成包括该芯片中全部计算核对应配置信息的初始化硬件配置文件。或者,还可以根据当前芯片中用于执行神经网络任务子任务的计算核位置,生成仅包括执行子任务的计算核对应配置信息的初始化硬件配置文件。
可选地,不同类型的芯片中处理部件包括的具体的计算组件、控制组件和路由组件不同。例如,在芯片为类脑计算芯片时,计算组件可以包括树突单腿和胞体单元,控制组件可以包括轴突单元,路由组件可以包括路由单元。
步骤S30、根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令中至少一个子任务指令以及寄存器参数,得到所述神经网络任务的执行代码。
在一种可能的实现方式中,电子设备在初始化硬件配置文件后,可以根据任务映射图对硬件配置文件中每个计算核的指令流和寄存器参数,得到电子设备中硬件执行神经网络任务的执行代码。其中,在配置每个计算核的指令流时,需要配置计算核需要执行的计算指令、数据读写指令、数据移动指令、路由指令中的至少一个子任务指令。其中,不同的指令可以通过不同方式配置,例如计算指令根据计算核对应子任务的参数信息配置,即将计算核对应子任务的参数信息填入执行该子任务的预设指令中,得到计算核能够执行的计算指令。
可选地,数据读写指令中可以包括内存地址、内存长度和读写方式,其中内存地址和内存长度可以通过预设的内存分配规则和对应的参数信息分配得到,读写方式可以根据对应的计算核执行子任务的时间顺序确定,或者还可以为子任务的参数信息中包括的信息。即读写方式可以直接从参数信息获取,内存地址和内存长度可以基于参数信息中的数据块尺寸和数据块大小,由电子设备根据预设的内存分配规则分配得到。进一步地,内存地址对应的内存区域中包括数据区、代码区和收发区,数据区用于存储动态数据和/或静态数据,代码区用于存储计算核执行的指令流和指令参数,收发区用于存储计算核发送的数据和/或接收的数据。其中,数据区存储的动态数据可以包括神经网络计算过程中的输入值、输出值和中间值,静态数据可以包括神经网络的权重、偏置以及一些参数。代码区还可以存储路由指令设计的路由表以及查找表指令设计的查找表等信息。代码区中包括的指令参数可以为任意指令的参数信息。
可选地,数据移动指令用于在计算核内进行数据搬运,可以包括核内存储改变起始地址或跨内存片区移动的数据搬运操作。例如,当计算核中路由单元收到的数据将要被接下来的计算单元使用执行计算或者当前时刻需要发出去的数据不处于收发区时,需要生成一条数据移动指令来完成数据的搬运。计算核中数据移动指令的配置可以根据任务映射图中数据移动任务对应的参数信息实现,例如根据参数信息将数据移动任务的指令配置为合并移动指令或拆分移动指令。其中,合并移动指令是多输入单输出的指令,输出为输入向量在某个方向上的拼接结果。拆分移动指令为单输入多输出的指令,输出是输入向量在某个方向上拆分的结果。
可选地,路由指令用于在不同计算核之间进行数据传输,可以根据任务映射图配置路由指令参数和路由表。即根据任务映射图中对应的是否发送/接受、数据包个数、数据来源、数据大小、中继/多播模式、同步异步模式参数信息配置指令参数,并根据发送模式、接收数据的计算核在硬件设备的坐标、数据要存在接收数据核的地址以及一些收发细节问题等配置路由表。
图3示出根据本公开实施例的一种内存区域的示意图。如图3所示,每个用于存储数据的内存区域中包括数据区、代码区和收发区,内存区域中包括静态数据块和动态数据块。数据区中的数据可以和收发区的数据进行搬运。例如,在需要发送数据时,将需要发送的数据从数据区移动至收发区。在接收到数据时,将接收的数据收发区移动至数据区。
在一种可能的方式中,寄存器参数根据每个子任务对应的计算核的硬件位置,以及每个计算核执行对应子任务的时间顺序确定。即电子设备可以任务映射图中计算核的硬件位置、执行子任务的时间顺序配置,以及每个计算核处理的子任务类型和执行时间相邻的其他计算核执行的任务类型对应的寄存器参数。例如,在任务映射图中显示时序上相邻的计算核执行跨核传输的路由任务时,可以根据需要进行数据传输的计算核硬件位置配置对应的寄存器参数。
可选地,在通过上述方式完成每个计算核的指令流和寄存器参数的配置后,可以直接得到神经网络任务对应的执行代码。进一步地,电子设备还可以在配置完成指令流和寄存器参数的配置后,还可以对硬件配置文件进行优化得到执行代码。例如,电子设备可以根据任务映射图配置硬件配置文件中每个计算核对应的计算指令、数据读写指令、数据移动指令、路由指令以及寄存器参数,再根据预设的优化规则对完成配置的硬件配置文件进行优化,得到神经网络任务的执行代码。其中,预设的优化规则可以通过以下至少一种方式对硬件配置文件进行优化:生成多网络执行控制信息、调试硬件开关、关闭结束任务处理的计算核、填充静态数据、优化计算核中组件的流水线以及生成多个计算核的输入和/或输出的参数配置。
可选地,在存在多个神经网络任务在芯片上同时执行时,不同网络往往有不同的执行需求,生成多网络执行控制信息用于对不同网络的执行和通信进行相应的调度和控制。调试硬件开关用于根据调试需求设置硬件执行过程或硬件仿真过程中调试开关。关闭结束任务处理的计算核用于及时关闭不再使用的计算核、降低芯片整体功耗,提高整体的计算和存储利用率。填充静态数据包括在运行时填充静态数据或在编译时填充静态数据。其中,运行时填充静态数据为芯片在执行计算时向外部请求数据,通过外部组件动态地将静态数据载入芯片。编译时填充静态数据为在计算任务编译过程中提前将静态数据载入内存,以节省运行时载入数据的时间,提高执行效率。优化计算核中组件的流水线用于提高众核芯片中计算核内计算组件的并行程度。如计算组件1和计算组件2分别执行两个存在数据依赖的指令1与指令2,如不启用流水线执行,则计算组件1在执行完指令1之后,计算组件2才可以开始执行指令2。如启用流水线执行,则指令1和指令2可以并行执行,即指令1产生的局部计算结果可以输入给指令2开始计算。生成多个计算核的输入和/或输出的参数配置用于根据众核芯片外部对于每一个计算核的输入输出需求对代码进行相应的参数配置。在不通过上述方式进行优化的情况下,硬件配置文件中相关配置为默认配置。
图4示出根据本公开实施例的一种神经网络任务的代码生成过程的示意图。如图4所示,电子设备在确定神经网络任务的任务映射图后,通过芯片参数初始化的方式初始化得到硬件配置文件。再通过计算指令参数设置、内存地址参数设置、移动指令生成和路由指令生成的方式配置硬件配置文件中每个计算核的指令流。同时,还通过寄存器配置生成配置寄存器参数,得到配置完成的硬件配置文件。可选地,电子设备可以直接将该应将配置文件作为执行代码。或者,还可以通过多网络执行控制信息生成、调试相关的设置、关闭不使用的核、静态数据填充、计算组件的流水线优化以及中和输入输出配置生成中的至少一种方式优化硬件配置文件得到执行代码。
基于本公开实施例的上述特征,电子设备可以通过确定神经网络任务对应任务映射图,并根据任务映射图映射的方式配置每个计算核的指令流和寄存器参数,得到包括多个计算核的硬件系统的可执行代码,将每个核映射功能级任务转换为芯片可执行的指令。该方式能够从复杂的任务中根据不同操作的特性和操作间的依赖关系抽象出了一系列配置方式,并通过不同的配置实现不同层次的代码生成步骤之间的解耦,使得任意两种指令或寄存器配置过程之间可以增删新的步骤而无需改动其它的步骤,使得编译器的代码生成器的开发有更好的模块化特性和可扩展性。同时,本公开实施例还提供了一种对硬件配置文件的可选优化方式,保证了硬件执行正确性的同时获得了更优执行效果。
图5示出根据本公开实施例的一种神经网络任务的代码生成装置的示意图。如图5所示,本公开实施例的装置可以包括:
映射图确定模块50,用于确定神经网络任务对应的任务映射图,所述任务映射图用于表征所述神经网络任务中每个子任务的类型、执行每个所述子任务的计算核、所述计算核执行对应子任务的时间顺序、以及每个所述子任务的参数信息;
文件初始化模块51,用于根据执行每个所述子任务的计算核的硬件位置初始化硬件配置文件,所述硬件配置文件中包括每个所述计算核的指令流以及寄存器参数,所述指令流包括计算指令、数据读写指令、数据移动指令和路由指令中至少一个子任务指令;
代码生成模块52,用于根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令中至少一个子任务指令以及寄存器参数,得到所述神经网络任务的执行代码。
在一种可能的实现方式中,所述文件初始化模块51,包括:
计算核确定子模块,用于根据所述任务映射图确定所述神经网络任务中每个子任务对应的计算核为目标计算核;
文件初始化子模块,用于初始化包括每个所述目标计算核对应配置信息的硬件配置文件,每个所述计算核的配置信息在所述硬件配置文件中的位置根据所述计算核在所述电子设备中的硬件位置确定,所述配置信息中包括所述计算核对应的指令流和寄存器参数。
在一种可能的实现方式中,所述计算指令根据所述计算核对应子任务的参数信息配置。
在一种可能的实现方式中,所述数据读写指令中包括内存地址、内存长度和读写方式,所述内存地址和内存长度通过预设的内存分配规则和对应的参数信息分配得到。
在一种可能的实现方式中,所述内存地址对应的内存区域中包括数据区、代码区和收发区,所述数据区用于存储动态数据和/或静态数据,所述代码区用于存储所述计算核执行的指令流和指令参数,所述收发区用于存储所述计算核发送的数据和/或接收的数据。
在一种可能的实现方式中,所述数据移动指令用于在计算核内进行数据搬运,所述路由指令用于在不同计算核之间进行数据传输。
在一种可能的实现方式中,所述寄存器参数根据每个所述子任务对应的计算核的硬件位置,以及每个所述计算核执行对应子任务的时间顺序确定。
在一种可能的实现方式中,所述代码生成模块52,包括:
参数配置子模块,用于根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令以及寄存器参数;
文件优化子模块,用于根据预设的优化规则对完成配置的所述硬件配置文件进行优化,得到所述神经网络任务的执行代码。
在一种可能的实现方式中,所述预设的优化规则通过以下至少一种方式对硬件配置文件进行优化:生成多网络执行控制信息、调试硬件开关、关闭结束任务处理的计算核、填充静态数据、优化计算核中组件的流水线以及生成多个计算核的输入和/或输出的参数配置。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是易失性或非易失性计算机可读存储介质。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为在执行所述存储器存储的指令时,实现上述方法。
本公开实施例还提供了一种计算机程序产品,包括计算机可读代码,或者承载有计算机可读代码的非易失性计算机可读存储介质,当所述计算机可读代码在电子设备的处理器中运行时,所述电子设备中的处理器执行上述方法。
图6示出根据本公开实施例的一种电子设备的示意图。如图6所示,本公开实施例的电子设备可以为类脑计算机,该类脑计算机的处理器中包括多个计算核。每个计算核包括处理部件及存储部件。所述处理部件可以包括树突单元、轴突单元、胞体单元、路由单元。所述存储部件可以包括两个以上存储单元,所述存储单元可用于存储处理数据和权值数据,存储单元中存储了处理数据的空间可称为处理数据空间,存储了权值数据的空间可称为权值数据空间。
在一种可能的实现方式中,所述处理器可以是类脑计算芯片,即,以大脑的处理模式为参考,通过模拟大脑中神经元对信息的传递与处理,提升处理效率并降低功耗。所述处理器可以包括多个计算核,计算核之间可以独立处理不同的任务,例如:卷积运算任务、池化任务或全连接任务等;也可以并行处理同一任务,即,每个计算核可以处理所分配到的同一任务的不同部分,例如:多层卷积神经网络运算任务中部分层的卷积运算任务等。需要说明的是,本公开对芯片中计算核数量,以及计算核所运行的任务不做限制。
在计算核之内,可以设置有处理部件和存储部件。处理部件可以包括树突单元、轴突单元、胞体单元和路由单元。处理部件可以模拟大脑的神经元对信息的处理模式,其中,树突单元用于接收信号,轴突单元用于发送尖峰信号,胞体单元用于信号的集成变换,路由单元用于同其它计算核进行信息传输。计算核内的处理部件可以对存储部件的多个存储单元进行读写访问,以与计算核内的存储部件进行数据交互,并可分别承担各自的数据处理任务和/或数据传输任务,以获得数据处理结果,或者与其他计算核进行通信。本公开对所述处理部件的应用领域不做限制。
在一种可能的实现方式中,存储部件可以包括两个以上存储单元,存储单元可以为静态随机存取存储器(Static Random-Access Memory,SRAM)。例如,存储单元可包括读写宽度为32B,容量为64KB的SRAM。本公开对存储单元的读写宽度和容量不做限制。
在一种可能的实现方式中,所述存储单元包括处理数据空间和权值数据空间。其中,处理数据空间可以用于存储动态数据,即,在运行中可能发生变化的数据、在运行中需要输入输出的数据以及在关联操作中要改变的数据。权值数据空间可以用于存储静态数据,即,在程序运行过程中作为控制或参考用的数据。静态数据可以不随程序运行而变化,所以说静态数据可以在很长的一段时间内不发生变化。例如,对于卷积神经网络结构,静态数据可以为卷积运算的权值数据,动态数据可以为处理数据,例如包括卷积层输入数据(例如,可以是经过shortcut处理的卷积层输入数据),随着处理数据的变化可以进行擦除、覆盖,比如说,在卷积神经网络结构分层迭代计算过程中,根据时序的需要不断修改处理数据,用新的处理数据覆盖旧的处理数据。
图7示出根据本公开实施例的一种电子设备的示意图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图7,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。
图8示出根据本公开实施例的一种电子设备1900的示意图。例如,电子设备1900可以被提供为一服务器或终端设备。参照图8,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出(I/O)接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (5)
1.一种神经网络任务的代码生成方法,用于包括多个计算核的电子设备,其特征在于,所述方法包括:
确定神经网络任务对应的任务映射图,所述任务映射图用于表征所述神经网络任务中每个子任务的类型、执行每个所述子任务的计算核、所述计算核执行对应子任务的时间顺序、以及每个所述子任务的参数信息;
根据执行每个所述子任务的计算核的硬件位置初始化硬件配置文件,所述硬件配置文件中包括每个所述计算核的指令流以及寄存器参数,所述指令流包括计算指令、数据读写指令、数据移动指令和路由指令中至少一个子任务指令;
根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令中至少一个子任务指令以及寄存器参数,得到所述神经网络任务的执行代码;
所述根据执行每个所述子任务的计算核的硬件位置初始化硬件配置文件,包括:
根据所述任务映射图确定所述神经网络任务中每个子任务对应的计算核为目标计算核;
初始化包括每个所述目标计算核对应配置信息的硬件配置文件,每个所述计算核的配置信息在所述硬件配置文件中的位置根据所述计算核在所述电子设备中的硬件位置确定,所述配置信息中包括所述计算核对应的指令流和寄存器参数;
所述计算指令根据所述计算核对应子任务的参数信息配置;
所述数据读写指令中包括内存地址、内存长度和读写方式,所述内存地址和内存长度通过预设的内存分配规则和对应的参数信息分配得到;
所述内存地址对应的内存区域中包括数据区、代码区和收发区,所述数据区用于存储动态数据和/或静态数据,所述代码区用于存储所述计算核执行的指令流和指令参数,所述收发区用于存储所述计算核发送的数据和/或接收的数据;
所述数据移动指令用于在计算核内进行数据搬运,所述路由指令用于在不同计算核之间进行数据传输;
所述寄存器参数根据每个所述子任务对应的计算核的硬件位置,以及每个所述计算核执行对应子任务的时间顺序确定;
所述根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令以及寄存器参数,得到所述神经网络任务的执行代码,包括:
根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令以及寄存器参数;
根据预设的优化规则对完成配置的所述硬件配置文件进行优化,得到所述神经网络任务的执行代码。
2.根据权利要求1所述的方法,其特征在于,所述预设的优化规则通过以下至少一种方式对硬件配置文件进行优化:生成多网络执行控制信息、调试硬件开关、关闭结束任务处理的计算核、填充静态数据、优化计算核中组件的流水线以及生成多个计算核的输入和/或输出的参数配置。
3.一种神经网络任务的代码生成装置,用于包括多个计算核的电子设备,其特征在于,所述装置包括:
映射图确定模块,用于确定神经网络任务对应的任务映射图,所述任务映射图用于表征所述神经网络任务中每个子任务的类型、执行每个所述子任务的计算核、所述计算核执行对应子任务的时间顺序、以及每个所述子任务的参数信息;
文件初始化模块,用于根据执行每个所述子任务的计算核的硬件位置初始化硬件配置文件,所述硬件配置文件中包括每个所述计算核的指令流以及寄存器参数,所述指令流包括计算指令、数据读写指令、数据移动指令和路由指令中至少一个子任务指令;
代码生成模块,用于根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令中至少一个子任务指令以及寄存器参数,得到所述神经网络任务的执行代码;
所述文件初始化模块,进一步用于:
根据所述任务映射图确定所述神经网络任务中每个子任务对应的计算核为目标计算核;
初始化包括每个所述目标计算核对应配置信息的硬件配置文件,每个所述计算核的配置信息在所述硬件配置文件中的位置根据所述计算核在所述电子设备中的硬件位置确定,所述配置信息中包括所述计算核对应的指令流和寄存器参数;
所述计算指令根据所述计算核对应子任务的参数信息配置;
所述数据读写指令中包括内存地址、内存长度和读写方式,所述内存地址和内存长度通过预设的内存分配规则和对应的参数信息分配得到;
所述内存地址对应的内存区域中包括数据区、代码区和收发区,所述数据区用于存储动态数据和/或静态数据,所述代码区用于存储所述计算核执行的指令流和指令参数,所述收发区用于存储所述计算核发送的数据和/或接收的数据;
所述数据移动指令用于在计算核内进行数据搬运,所述路由指令用于在不同计算核之间进行数据传输;
所述寄存器参数根据每个所述子任务对应的计算核的硬件位置,以及每个所述计算核执行对应子任务的时间顺序确定;
所述代码生成模块,进一步用于:
根据所述任务映射图配置所述硬件配置文件中每个所述计算核对应的计算指令、数据读写指令、数据移动指令、路由指令以及寄存器参数;
根据预设的优化规则对完成配置的所述硬件配置文件进行优化,得到所述神经网络任务的执行代码。
4.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为在执行所述存储器存储的指令时,实现权利要求1至2中任意一项所述的方法。
5.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至2中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210705825.8A CN115098107B (zh) | 2022-06-21 | 2022-06-21 | 神经网络任务的代码生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210705825.8A CN115098107B (zh) | 2022-06-21 | 2022-06-21 | 神经网络任务的代码生成方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115098107A CN115098107A (zh) | 2022-09-23 |
CN115098107B true CN115098107B (zh) | 2024-04-19 |
Family
ID=83293208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210705825.8A Active CN115098107B (zh) | 2022-06-21 | 2022-06-21 | 神经网络任务的代码生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115098107B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109656868A (zh) * | 2018-11-19 | 2019-04-19 | 浙江大学宁波理工学院 | 一种cpu与gpu之间的内存数据转移方法 |
CN110308909A (zh) * | 2018-03-27 | 2019-10-08 | 上海寒武纪信息科技有限公司 | 针对神经网络处理器的可执行程序生成装置和方法 |
CN110764744A (zh) * | 2018-07-25 | 2020-02-07 | 赛灵思公司 | 用于神经网络计算的中间表示生成方法和装置 |
JP2021064378A (ja) * | 2020-12-07 | 2021-04-22 | インテル・コーポレーション | ヘテロジニアスコンピューティングのためのシステム、方法及び装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200117465A1 (en) * | 2018-10-16 | 2020-04-16 | International Business Machines Corporation | Multi-agent instruction execution engine for neural inference processing |
US11263011B2 (en) * | 2018-11-28 | 2022-03-01 | International Business Machines Corporation | Compound instruction set architecture for a neural inference chip |
-
2022
- 2022-06-21 CN CN202210705825.8A patent/CN115098107B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110308909A (zh) * | 2018-03-27 | 2019-10-08 | 上海寒武纪信息科技有限公司 | 针对神经网络处理器的可执行程序生成装置和方法 |
CN110764744A (zh) * | 2018-07-25 | 2020-02-07 | 赛灵思公司 | 用于神经网络计算的中间表示生成方法和装置 |
CN109656868A (zh) * | 2018-11-19 | 2019-04-19 | 浙江大学宁波理工学院 | 一种cpu与gpu之间的内存数据转移方法 |
JP2021064378A (ja) * | 2020-12-07 | 2021-04-22 | インテル・コーポレーション | ヘテロジニアスコンピューティングのためのシステム、方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115098107A (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378862B (zh) | 一种图像处理方法及装置、电子设备和存储介质 | |
CN112947935A (zh) | 运算方法及装置、电子设备和存储介质 | |
JP7096888B2 (ja) | ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体 | |
US20190236750A1 (en) | Optimizing compilation of shaders | |
CN111222637A (zh) | 神经网络模型部署方法及装置、电子设备和存储介质 | |
CN111443917B (zh) | 神经网络运行优化方法、装置及相关产品 | |
CN114968594B (zh) | 任务处理方法、装置、电子设备和存储介质 | |
CN113032112A (zh) | 资源调度方法及装置、电子设备和存储介质 | |
CN111223036A (zh) | 一种gpu虚拟化共享方法、装置及电子设备和存储介质 | |
CN112818663A (zh) | 用于语言模型的处理方法、文本生成方法、装置及介质 | |
CN111966361A (zh) | 用于确定待部署模型的方法、装置、设备及其存储介质 | |
CN113110931A (zh) | 内核运算优化方法、装置及系统 | |
CN114035902A (zh) | 应用程序开发平台及方法、电子设备和存储介质 | |
CN111580883B (zh) | 应用程序启动方法、装置、计算机系统和介质 | |
CN111694768B (zh) | 运算方法、装置及相关产品 | |
CN114282587A (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
CN115098107B (zh) | 神经网络任务的代码生成方法和装置 | |
CN115098262B (zh) | 一种多神经网络任务处理方法及装置 | |
CN110297970B (zh) | 信息推荐模型训练方法及装置 | |
CN111695686B (zh) | 地址分配方法及装置 | |
CN110727462B (zh) | 数据处理器和数据处理方法 | |
CN112988194B (zh) | 基于设备信息的程序优化方法、装置、电子设备及存储介质 | |
CN113378863B (zh) | 一种图像处理方法及装置、电子设备和存储介质 | |
CN114020264A (zh) | 算子处理方法及装置、电子设备和存储介质 | |
CN110163372B (zh) | 运算方法、装置及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |