CN114995823A - 一种面向cnn专用加速器的深度学习编译器优化方法 - Google Patents
一种面向cnn专用加速器的深度学习编译器优化方法 Download PDFInfo
- Publication number
- CN114995823A CN114995823A CN202210639397.3A CN202210639397A CN114995823A CN 114995823 A CN114995823 A CN 114995823A CN 202210639397 A CN202210639397 A CN 202210639397A CN 114995823 A CN114995823 A CN 114995823A
- Authority
- CN
- China
- Prior art keywords
- data
- memory
- circulation
- accelerator
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000013135 deep learning Methods 0.000 title claims abstract description 67
- 238000010586 diagram Methods 0.000 claims abstract description 81
- 230000004927 fusion Effects 0.000 claims abstract description 30
- 230000008707 rearrangement Effects 0.000 claims abstract description 12
- 239000002699 waste material Substances 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims description 177
- 230000004087 circulation Effects 0.000 claims description 74
- 238000012545 processing Methods 0.000 claims description 39
- 125000004122 cyclic group Chemical group 0.000 claims description 17
- 230000000903 blocking effect Effects 0.000 claims description 14
- 238000005192 partition Methods 0.000 claims description 2
- 238000013139 quantization Methods 0.000 description 183
- 238000013527 convolutional neural network Methods 0.000 description 67
- 102100030148 Integrator complex subunit 8 Human genes 0.000 description 47
- 101710092891 Integrator complex subunit 8 Proteins 0.000 description 47
- 238000013461 design Methods 0.000 description 41
- 230000006870 function Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 22
- 238000011161 development Methods 0.000 description 18
- 238000002474 experimental method Methods 0.000 description 18
- 238000012360 testing method Methods 0.000 description 18
- 238000009826 distribution Methods 0.000 description 17
- 238000011160 research Methods 0.000 description 16
- 230000004913 activation Effects 0.000 description 15
- 238000009825 accumulation Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 238000007667 floating Methods 0.000 description 12
- 238000011176 pooling Methods 0.000 description 12
- 238000013136 deep learning model Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 238000004088 simulation Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 6
- 238000011002 quantification Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000010349 pulsation Effects 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 241001522296 Erithacus rubecula Species 0.000 description 2
- 101150108558 PAD1 gene Proteins 0.000 description 2
- ROXBGBWUWZTYLZ-UHFFFAOYSA-N [6-[[10-formyl-5,14-dihydroxy-13-methyl-17-(5-oxo-2h-furan-3-yl)-2,3,4,6,7,8,9,11,12,15,16,17-dodecahydro-1h-cyclopenta[a]phenanthren-3-yl]oxy]-4-methoxy-2-methyloxan-3-yl] 4-[2-(4-azido-3-iodophenyl)ethylamino]-4-oxobutanoate Chemical compound O1C(C)C(OC(=O)CCC(=O)NCCC=2C=C(I)C(N=[N+]=[N-])=CC=2)C(OC)CC1OC(CC1(O)CCC2C3(O)CC4)CCC1(C=O)C2CCC3(C)C4C1=CC(=O)OC1 ROXBGBWUWZTYLZ-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012821 model calculation Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 101100406366 Caenorhabditis elegans pad-2 gene Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011990 functional testing Methods 0.000 description 1
- 150000004820 halides Chemical class 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000005956 quaternization reaction Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
本发明提出了一种面向CNN专用加速器的深度学习编译器优化方法,包括以下之一或者任意组合步骤:S1,通过算子融合和/或bn融合的优化方法减少加速器对内存的访问以及存储空间的浪费,同时使用内存分配地址叠加的方式避免各张量之间的数据覆盖;S2,采用内存共享和编址的方法,并通过特征图深度复制、算子执行顺序交换策略使编译器支持复杂的跳跃连接网络结构;S3,采用优化卷积循环平铺和循环重排的调度策略来提升加速器的性能。
Description
技术领域
本发明涉及编译器优化领域,特别是涉及一种面向CNN专用加速器的深度学习编译器优化方法。
背景技术
随着深度学习算法的发展,卷积神经网络模型逐渐从云端向边缘端迁移。同时模型的规模不断变大,导致了其参数量和计算量也在剧增。像CPU和GPU这种通用处理平台因为存在性能不足和功耗高等缺点,因此相关研究开始通过FPGA或者ASIC来定制高性能、高能效的CNN专用加速器,然而专用加速器因为灵活性不足,因此还需要设计深度学习编译器这样的软件工具来配合使用。
面对错综复杂的网络结构,深度学习编译器需要将其简化,最后变成各种Concat和Split分支结构。对于专用加速器来说,此类操作需要将以前的计算结果重新读进缓存,经过相关操作后再写回缓存,频繁的内存访问会造成内存的高时延、高能耗,同时还会增长片上资源的开销。
此外,FPGA等加速器中因为处理浮点计算比较复杂,编译器还需要对模型进行定点整数的量化,量化分为对称量化和非对称量化。对称量化实现简单,但面对数据正负分布不均匀的情况下会导致精度损失过高,而精度损失更低的非对称却会增加加速器的计算复杂度。同时FPGA中采用DSP来执行乘累加运算,但DSP模块是定制化的,无法体现低位宽量化数据的计算性能优势。因此编译器对模型的量化方式选择会受到硬件的限制。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种面向CNN专用加速器的深度学习编译器优化方法。
为了实现本发明的上述目的,本发明提供了一种面向CNN专用加速器的深度学习编译器优化方法,包括以下之一或者任意组合步骤:
S1,通过算子融合和/或bn融合的优化方法减少加速器对内存的访问以及存储空间的浪费,同时使用内存分配地址叠加的方式避免各张量之间的数据覆盖;
S2,采用内存共享和编址的方法,并通过特征图深度复制、算子执行顺序交换策略使编译器支持复杂的跳跃连接网络结构;
S3,采用优化卷积循环平铺和循环重排的调度策略来提升加速器的性能。
进一步地,所述S2包括:
S2-1,对于不涉及数据计算操作的算子,且满足输入特征图和输出特征图在数据内容上有重叠的部分,则这部分重叠的数据由涉及到的相关特征图共享;
S2-2,对于内存空间不连续,则将参与数据拼接或拆分的特征图划分在一个共享区域,如果没有参与就单独为一个共享区域,共享区域的内存空间大小根据通道数最大特征图的尺寸计算;然后由编译器根据连续内存或者非连续内存进行相关地址偏移计算;
S2-3,若一个特征图A与其它多个没有关联的特征图都做拼接,则增加一个深度复制的算子Copy,并将所述的一个特征图深度复制成多个相同的特征图即第一特征图A′、第二特征图A″......对于算子Copy,将A对应的卷积输出经过ALU模块后分别存入到第一特征图A′、第二特征图A″以及其它相同特征图当中,A在ALU模块计算完成后将结果写回两个地址;
S2-4,如果计算图中拼接类算子的输出又作为输入流向线性计算算子,则将线性计算算子向前移动与拼接类算子交换顺序。
进一步地,所述地址偏移包括:
对于连续内存中进行地址偏移包括:
编译器每个循环的地址偏移计算公式为:
stridei=∏stridelist[i+1:]*perBytes
其中i表示的是第几个维度的循环;
[i+1:]表示偏移的数值从i+1开始;
perBytes表示每个数据在内存中占多少字节;
stridei表示第i个维度循环所对应在内存中的地址偏移;
stridelist表示循环偏移列表;
对于非连续内存中进行地址偏移包括:
计算每个循环地址的偏移:
stridei=∏stridelist[i+1:]*perBytes
stridelist=(1,h,w,cc+c)
其中h表示特征图的高值;
w表示特征图的宽值;
c表示特征图的通道值;
cc+c表示特征图所属共享区域的总通道值。
进一步地,所述S3包括:
首先外循环顺序采用枚举的方式,不同的外循环之间通过多线程的形式进行循环平铺尺寸空间探索,循环平铺的尺寸同样用枚举的形式从而得到每个缓存对应的分块数据大小,然后根据FPGA硬件的信息去计算该种方式消耗的时钟周期,最终通过比较采用消耗时钟周期最小的循环调度方案。
进一步地,所述循环平铺的具体步骤如下:
S100,外循环:
S100-1,若h小于OH,则继续第一层外循环,且每循环一次h加1;
S100-2,若c小于OW,则继续第二层外循环,且每循环一次w=w+ow;
S100-3,若oc小于OC,则继续第三层外循环,且每循环一次oc=oc+To;
S100-4,若ic小于IC,则继续第四层外循环,且每循环一次ic=ic+Ti;
S200,加载数据进缓存;
S300,内循环:
S300-1,若_h小于min(h+oh,OH),则继续第一层内循环,且每循环一次_h加1;
S300-2,若_w小于min(w+ow,OW),则继续第二层内循环,且每循环一次_w加1;
S300-3,若occ小于min(oc+To,OC),则继续第三层内循环,且每循环一次occ加1;
S300-4,若icc小于min(ic+Ti,IC),则继续第四层内循环,且每循环一次icc加1;
S300-5,若kw小于KW,则继续第五层内循环,且每循环一次kw加1;
S300-6,若kh小于KH,则继续第六层内循环,且每循环一次kh加1;
S300-7,output=input*weight+output;
其中OW、OH分别表示输出特征图的宽、高;
IC表示输入通道数;
OC表示卷积核的数量;
KW、KH分别表示卷积核的宽、高;
h、c、w、oc、ic均为外循环的遍历符号;
ow、To、Ti均为循环平铺的步长,取值均大于1;
_h、_w、occ、icc、kw、kh均为内循环的遍历符号;
output表示输出;
input表示输入;
weight表示权重。
进一步地,所述计算该种方式消耗的时钟周期包括:
S10,根据内循环顺序、循环平铺的尺寸计算出运算单元处理一个分块的时间;然后用同样的方法遍历所有的分块得到运算单元总计算时间;
S20,根据外循环顺序、循环平铺的尺寸以及表3.1所述的数据块更换情况,求出每一次外循环的内存方法时间;表3.1的数据若为未命中就更换。
S30,如果第二步的时间大于第一步的时间,则内存阻塞时间=外循环的内存方法时间-固定的脉动阵列计算的时间;如果第二步的时间小于第一步的时间,内存阻塞时间为0;总内存阻塞时间即遍历所有的外循环;
S40,加速器总的运行时间=运算单元总计算时间+总内存阻塞时间。
进一步地,所述计算出运算单元处理一个分块的时间的计算公式如下:
an(…(a2(a1(a0+b)+b)+b)…)
其中an中的n表示的内循环顺序对应的循环数为n;
b表示切换循环的额外开销;
循环平铺的尺寸就是内循环的具体数值即a0,a1,...,an;
所述每一次外循环的内存方法时间=数据的交换量/内存的带宽。
进一步地,还包括:采用固定硬件下的多种模型量化部署方案,通过融合非对称量化的偏移和卷积偏置使硬件不需要额外的计算模块也能支持非对称量化方式,以此实现不改变硬件也能提升运算精度;同时通过编译器与加速器的协同优化,将DSP的输入数据配置为两个数的移位相加从而在一个DSP中同时进行两次乘法运算,最终实现编译器对可变位宽量化的支持。
具体步骤为S-1,运行校准集,获取特征图的动态分布范围;
S-2,检测量化位宽选项,判断是否为INT8或INT16,如果是INT8则采用输入移位相加或权重移位相加;这样INT8的计算速度是INT16的两倍。
S-3,遍历计算图并判断特征图之间是否有跳跃连接的关系,如果有,则进行缩放因子和偏移的统一;
S-4,检测量化编译形式选项,根据上一步INT8或INT16的选择计算出缩放因子scale和零点偏移,如果为非对称量化,将偏置和偏移进行融合。
进一步地,所述偏置和偏移进行融合包括:
对于非对称量化,卷积计算过程的量化公式为:
其中q1、q2、q3、分别表示输入定点数、权重定点数、输出定点数;
S1、S2、S3分别为输入的缩放因子、权重的缩放因子、输出的缩放因子;
Z1、Z2、Z3分别为输入的偏移、权重的偏移和输出的偏移;
2-n表示右移n位操作;
M0为整数;
∑表示卷积求和;
B′表示新的偏置;
round(·)表示四舍五入取整;
bias表示偏置。
所述输入移位相加包括:
相邻式输入移位相加:与下一个相邻输出点对应同一位置的输入值进行数据移位相加后再送进处理引擎PE,计算的结果经过拆分将会对应输出特征图上两个相邻的输出点;下一组输出的步长为2,相对应的输入特征图的步长也为2;
或对半式输入移位相加:输出特征图的上下均分,会跨越式的读取下半张输出特征图对应的输入数据,而上下输入点之间的距离是固定的,此时输入的偏移步长为1,循环的行数OH减半;
所述权重移位相加包括:相邻两个卷积核上同一位置的权重进行移位相加后送进PE的权重通道,做完计算后的结果拆分对应于输出特征图同一位置上的两个相邻通道值,单个卷积核的计算流程不变,此时卷积核的数量OC减半。
所述权重移位相加还包括:对于有符号数的移位相加时,将PE的输出结果按位数均匀拆分为高位数据和低位数据,高位数据需加上低位数据的符号位。
进一步地,还包括:
在脉动阵列中每个PE单元会累加上一个PE的输出结果,然后送入下一个PE单元继续进行累加,增加一个溢出位用于兼容数据累加的进位。用于保证与INT16量化计算过程的一致性以及INT8量化模式下低位结果在累加过程中产生的进位不会覆盖高位数据的内容同时高位结果也不会溢出。
综上所述,由于采用了上述技术方案,本发明具有以下优点:
(1)通过算子融合和/或bn融合的优化方法减少加速器对内存的访问以及存储空间的浪费,同时使用内存分配地址叠加的方式避免各张量之间的数据覆盖。
(2)设计了一种内存共享和编址的方式,以及通过特征图深度复制与算子交换顺序简化计算图使编译器能支持跳跃连接网络结构;
(3)在优化权重缓存带宽的基础上设计了基于时延的卷积计算循环调度优化策略,提升了加速器的性能。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明专用深度学习编译器架构示意图。
图2是本发明算子节点Node与张量Tensor的拓扑关系示意图。
图3是本发明全连接层转换为1x1卷积示意图。
图4是本发明算子融合前后的内存访问示意图。
图5是本发明分支卷积合并示意图。
图6是本发明内存分配流程图。
图7是本发明卷积填充后的首地址读写示意图。
图8是本发明输出特征图划分tile示意图。
图9是本发明指令生成流程图。
图10是本发明DenseNet跳跃连接示意图。
图11是本发明对称量化和非对称量化计算模块示意图。
图12是本发明加速器中数据存储层次示意图。
图13是本发明NHWC数据布局通道拼接的内存分布示意图。
图14是本发明共享区域划分示意图。
图15是本发明共享区域重叠部分深度复制示意图。
图16是本发明yolov4tiny残差块结构转换示意图示意图。
图17是本发明根据输出位置PE输入移位相加示意图。
图18是本发明PE权重移位相加示意图。
图19是本发明有符号数移位相加后乘法结果拆分示例图。
图20是本发明PE输出结构示意图。
图21是本发明INT8量化输入数据不同位置的格式示意图。
图22是本发明模型量化流程图示意图。
图23是本发明XCZU19EG开发板示意图。
图24是本发明CNN加速器在19EG开发板上资源占比情况。
图25是本发明yolov4tiny网络结构示意图。
图26是本发明3*3卷积核并行计算示意图。
图27是本发明脉动阵列流水形式示意图。
图28是本发明数据更换次数循环累乘示意图。
图29是本发明内存阻塞示意图。
图30是本发明循环平铺和循环重排优化调度示意图。
图31是本发明调度优化前后性能对比示意图。
图32是本发明编译器目录结构示意图。
图33是本发明conv0+bn+leakyRelu算子融合示意图。
图34是本发明conv0算子融合后拓扑结构示意图。
图35是本发明concat算子结构处理示意图。
图36是本发明循环调度日志示意图。
图37是本发明编译器生成的部分指令图。
图38是本发明仿真获取输出日志示意图。
图39是本发明软硬件结果对比示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
1研究背景与现状
1.1研究背景与意义
深度学习是机器学习算法中一个非常重要的分支,近几年来发展迅速,在计算机视觉、语音识别、自然语言处理和自动驾驶等领域都取到了显著的成果,同时深度学习也逐渐将人工智能带入到人们的日常生活当中。卷积神经网络(Convolutional NeuralNetworks,CNN)是深度学习中应用最广的技术,它主要是从数据集中学习样本的内在规律和特征信息,从而达到识别图像、文字等数据的目的。CNN模型训练是一个逐渐学习并调参的过程,可以调整的参数越多,那么网络能调整的自由度就越大,最终的逼近效果也会越好。因此随着CNN实际应用对模型高准确率的需求,CNN模型的大小以及计算复杂度也在逐渐增加,而与之同时给CNN模型在应用部署上也带来了巨大的挑战。
CNN的高密集计算需要硬件平台来提供支持,传统中央处理单元(CentralProcessing Unit,CPU)的架构并不适合处理大规模的矩阵运算,而高级图形处理单元(Graphics Processing Unit,GPU)具有很高的并行性,被广泛应用于CNN模型的训练和推理。但是GPU存在功耗高和资源利用率低的问题,其高性能也依赖于大批量输入数据,在CNN模型的实际应用场景中,大多数情况下都是对单帧进行处理的,同时部署设备上的计算资源也比较有限,因此GPU并不适合作为CNN模型应用部署中的硬件加速平台。
为了解决CNN模型在嵌入式等设备上计算能力不足、功耗高和存储空间有限等问题,一种思路是从模型本身入手,对于资源受限的计算平台,设计一些轻量级的模型,例如SqueezeNet、MobileNet、Xception等等,然后再使用量化、剪枝等模型压缩方法可以进一步减小模型尺寸使其更容易地部署到嵌入式设备上。另外一种思路是采用现场可编程门阵列(Field Programmable Gate Array,FPGA)和专用集成电路(Application SpecificIntegrated Circuit,ASIC)来定制硬件平台作为CNN模型推理专用加速器。尽管基于ASIC的相关加速器已经可以达到了非常可观的性能,但是与CNN算法的快速发展相比,AISC的设计缺乏灵活性并且开发周期长,而FPGA的可配置特点可以通过重构使加速器具有很高的灵活性,因此基于FPGA的专用加速器受到了产业界和学术界的广泛关注。
硬件加速器的计算执行需要相应的编译软件系统才能支持多变的网络结构,同时又因为CNN专用加速器硬件结构的多样性,目前相对通用的深度学习编译器无法为所有硬件平台提供编译支持,因此自研AI编译器对于CNN专用加速器的使用和推广很重要,缺乏相对应的编译软件工具链,硬件就无法发挥出最大功效。然而目前国内对面向CNN专用加速器的深度学习编译器(简称“专用深度学习编译器”)的相关研究还比较少,CNN模型在部署上还面临着很多挑战。
首先,随着CNN算法的快速发展,CNN模型的网络结构也越加复杂,例如DenseNet、Inception等比较流行的网络模型中有着大量的跳跃连接结构,这种结构需要将不同层次的特征图进行组合拼接,然而CNN专用加速器难以灵活地支持这些复杂的网络模型。其次,由于CNN网络模型的规模和深度的逐渐增加,CNN模型的权重参数量也更加庞大,很多研究通过量化来减少模型规模,同时定点运算相比浮点运算还可以减少资源开销。然而不同的模型适用于不同的量化方式,专用加速器难以在硬件硬件结构不变的情况下同时支持不同的量化方式,比如非对称量化中有偏移计算,因此加速器需要额外的偏移计算模块。同时不同的模型会适用于不同的量化位宽,编译器需要充分利用FPGA中的数字信号处理器(Digital Signal Processor,DSP)等计算资源来支持不同的量化方案。最后,卷积计算是一个大规模的多层循环操作,由于片上缓存的资源有限,无法存储下全部数据,输入特征图和权重需要进行分块后送进缓存才能在加速器中完成对整个CNN网络的计算,然而卷积计算各层循环中有着对数据的复用,不同的分块尺寸和不同的循环执行顺序都会影响加速器与外存储器的数据交互情况从而产生不同的执行性能,因此如何结合硬件架构进行循环平铺和卷积循环重排是编译器所需要解决的重要问题。
综上所述,为了实现CNN模型在嵌入式等设备上的高效部署,本文对面向CNN专用加速器的深度学习编译器提出了优化设计,并在开源CNN专用加速器——DnnWeaver上进行了实现与验证,最终使得CNN专用加速器能更灵活、更高效地处理CNN模型。目前国内对专用深度学习编译器这方面的相关研究并不多,因此本文对于推动CNN模型的应用部署具有一定的研究意义。
1.2研究发展与现状
1.2.1深度学习加速器
深度学习编译器的发展与深度学习加速器的发展息息相关,目前深度学习加速器的发展主要朝两个方向。其中一个是沿用传统的计算架构来提高硬件的加速性能,如GPU、AISC、FPGA等。2009年Clement Farabet等人尝试在FPGA上通过使用数字信号处理器实现了卷积计算功能,并成功应用了一个简单的人脸检测模型;2014年,国内团队寒武纪提出的DianNao神经网络处理器使用多种深度学习加速算法,并通过优化数值和存储模块等方法达到了比当时GPU快好几十倍的效果,同时也开启了深度学习神经网络专用处理器的先河;2016年Google发布了一款通过脉动阵列计算核心来加速矩阵乘法和卷积的人工智能芯片TPU,其主要为Tensorflow模型服务,第一代还只能用于推理,在第二代中增加了神经网络模型训练的功能;同年国内深鉴科技也提出了基于XILINXFPGA芯片的深度学习开发框架DNNDK,极大程度地缩短了深度模型到硬件的部署周期;同时Yu-Hsin Chen等人针对缓存与内存之间大量数据搬移问题设计了一种具有可重配置功能的深度学习加速器Eyeriss,主要通过行固定(Row Stationary,RS)等方法来降低数据搬运带来的延迟和能耗开销,之后又提出了Eyeriss v2来支持稀疏矩阵的运算;2018年,清华大学Thinker团队推出了可重构加速器,这是一种脉动阵列形式的CGRA(Coarse Grained Reconfigurable Array)结构,通过对加速器的核心计算单元进行指令级别的动态配置,可以实现在不改变硬件的情况下支持绝大部分深度学习模型的运算。
加速器的另外一个发展方向是颠覆传统的冯·诺依曼架构,采用神经形态架构来设计类脑神经结构以提升计算能力,以IBM的TrueNorth芯片为代表,但目前还仅能识别比较简单的数据集。
1.2.2深度学习编译器
早期深度学习模型的部署还只能借助第三方库(例如NVIDIA的矩阵运算库cuBLAS和英特尔的计算库MKL)来达到优化计算的效果,然而随着越来越多的新算子被提出,算子库的开发和维护工作量也越来越大,由此便产生了深度学习编译器。目前深度学习编译器的发展并不成熟,而现阶段比较知名的有英特尔的nGraph,TVM,Facebook的Glow、TensorComprehension和Google的XLA。
XLA是谷歌推出的高性能机器学习领域编译器,用来编译Tensorflow设计的模型,从而解决Tensorflow在设计时因只考虑灵活性和可扩展性而带来的计算性能欠缺问题。XLA将HLOIR表示的计算图进行与部署平台无关的优化,在后端则基于硬件架构进行再次优化,然后将优化后的HLOIR转变为更低级的LLVMIR并生成机器码。同时谷歌还推出了一种中间表达形式MLIR,用于提高各种IR之间的转换效率和可迁移性。nGraph可简化跨框架和硬件平台的部署过程,将模型定义的框架与计算剥离开,转化为与框架无关的中间表示nGraph IR,然后进一步把它们转换成可以在硬件后端执行的形式。Glow和XLA比较类似,都是将计算图中的每个Node抽象成一系列简单的线性代数原语来进行实现加速。TVM是一个端到端堆栈,能把深度学习工作负载部署到硬件,它继承了Halide计算和调度分离的架构,这一点和Tensor Comprehension类似,区别在于TVM的调度通过指令用户手工指定,而Tensor Comprehension在领域专用语言(Domain Specified Language,DSL)中描述了计算之后,就完全交给了后续的编译程序来实现调度的自动转换。
因为计算资源有限,深度学习编译器还需要对模型进行量化处理。TensorComprehension并不支持对模型的量化工作,而nGraph、Glow、XLA和TVM均可以实现对模型的INT8量化,但是并不能支持多种量化方式(TVM在通用硬件平台上能支持非定点的FP16量化)。针对专用CNN加速器的模型量化部署,张芳芳在所设计的专用深度学习编译器中因为受到硬件结构的限制采用了固定的INT16对称量化,其只为量化模型在硬件部署上的可行性,并没有考虑模型量化后的准确率或者压缩率是否适用。王卓在对人工智能芯片上模型压缩的研究中采用INT8非对称量化,其模型的激活函数为ReLU6,因此将输入数据用UINT8表示从而避免了对非对称量化零点偏移的处理,但是这种方法需要限定激活函数来控制输入数据的分布。
Chen Zhang等人在2015年的论文中提出了一种使用Roo-fline模型的分析设计方法,对CNN设计的解决方案都可以使用各种优化技术来定量分析其需要的内存带宽和计算的吞吐量,然后在Roo-fline模型的帮助下可以确定最低FPGA资源需求和最佳性能的解决方案,并在搜索空间内为每一层找到了最优的分块大小,但是没有对卷积循环的执行顺序进行探索。池昊宇以原始特征数据为输入,执行时间为输出,建立了一个尺度特定的矩阵乘法式执行时间预测模型,在此基础上构建了最优分块大小的预测模型,但该预测模型只是针对人工神经网络,无法适用于多层嵌套循环的卷积神经网络。
2专用深度学习编译器的设计架构与优化问题分析
由于深度学习应用逐渐从云端开始向边缘端进行发展,如何将深度学习模型高效地部署在集成了专用CNN加速器的嵌入式设备上成为了一个研究热点。目前在资源受限的加速器平台上部署CNN模型仍面临很多挑战,同时国内对面向CNN专用加速器的深度学习编译器的研究比较少,本文以优化CNN模型在专用CNN加速器上的部署为出发点,对面向CNN专用加速器的深度学习编译器提出了优化设计。
2.1专用深度学习编译器的基本设计架构
深度学习编译器的工作是将深度学习模型通过各种优化技术生成硬件平台执行所需要的指令或者代码,本文基于FPGA加速器的专用深度学习编译器架构如图1所示。由图1可知CNN模型从顶端到加速器硬件的部署是一个多级编译流程,主要分为三个阶段:前端、中间优化器和后端。模型在每个层次都有不同的存在形式,在前端主要以模型框架形式为主,比如主流的Tensorflow、PyTorch和Caffe等等;中间层主要以由前端解析生成的自定义计算图形式存在;而后端则是优化后的计算图,其主要做与硬件结构相关的优化以及生成加速器运行所需的指令。这种三段式结构是目前最普遍的深度学习编译器设计方式,下面对这三个层次的主要设计进行阐述。
2.1.1编译器前端
深度学习编译器前端主要扮演一个解析器(parser)的角色,其主要工作是对模型进行加载、解析以及计算图的转化。对比于传统编译器,解析器相当于其中的语法分析器,用于将程序的文本形式输入转化为编译器内置设定的“抽象语法树”数据格式,再进一步进行优化处理,而深度学习编译器属于专用领域范畴,进行解析的输入对象是事先定义好的模型文件。由于顶层模型框架的多样性,目前的编译器设计大多都会将模型文件事先转换为统一的深度学习模型标准表示格式——ONNX,然后再送入解析器进行解析,最后生成自定义的中间表达形式IR。目前主流模型框架都对ONNX有着不同程度的支持,这也便于算法模型在不同框架之间的迁移以及对模型解析器接口的设计。
在本文编译器的设计中,中间表示IR中有三种数据结构——Graph、Node和Tensor。Graph是抽象化的计算图,由节点列表(NodeList)、张量列表(Tensor List)和其他属性字段组成。节点列表中的每一个节点都表示一种算子操作,而张量列表中的每一个张量则是特征数据和权重数据的存储和传输介质,节点与张量之间的拓扑关系组成了完整模型的网络结构,拓扑关系如图2所示。下面对编译器中Node和Tensor的属性进行详细介绍。
①Node
在计算图中,Node数据结构可以表示计算图中的全部节点,而Node相较Tensor来说种类较多,比如卷积、池化等等,因此Node是抽象为一个基类,共有属性有名称、输入Tensor列表、输出Tensor列表和其它一些抽象的方法函数。具体的算子节点都由Node基类进行派生,各节点之间有着顺序关系和拓扑关系。顺序关系表示节点之间的执行顺序,而先后执行顺序由在Graph的节点列表中存储顺序决定;拓扑关系表示该节点用到了在其它节点中定义的值。由于在卷积神经网络计算图中,绝大部分节点表示的都是卷积算子,下面主要介绍卷积算子中的一些属性:
1)data,卷积计算的特征图输入数据,类型为Tensor。
2)weights,卷积计算的权重数据,类型为Tensor,在卷积算子内部设置了异常判断机制,如果data的通道数和weights单个卷积核的通道数不等则抛出异常。
3)bias,卷积计算的偏置数据,类型为Tensor,同样的也设置了异常判断机制来检测卷积核的数量与bias的长度是否相等。
4)stride,卷积的步长,四个数据对应输入Tensor在数据布局NHWC四个方向上的步长,一般情况下stride为,如果卷积步长为2则stride为。
5)pad,卷积计算需要的对输入特征图的填充,根据weights的形状和填充类型来决定数值,如果是3*3卷积和“same”填充类型,pad则为[[0,0],[1,1],[1,1],[0,0]]。
在专用卷积神经网络加速器中一般没有专门对全连接层进行处理的计算单元,编译器在进行解析模型的时候会将其转为相对应的卷积操作。全连接层的计算操作实际上就是输入特征图大小与单个卷积核大小一致的卷积计算,每个卷积核所计算出来的结果就对应着全连接层输出的一个神经元。因此通常采用“1x1”的卷积运算来取代全连接层,如图3所示的输入神经元长度相当于卷积输入的通道数,而输出神经元的长度则表现为卷积核的数量。
②Tenor
在计算图中张量不仅作为数据存储的媒介,同时还负责将各个算子连接起来组成完整的一个计算图。张量中存储的是一种多维数据,在编译器中被抽象为Tensor类。Tensor中除了比较直观的数据属性外,还扩展了几个必要的属性,包括:
1)dtype,表示量化后的数据类型,主要有INT8、INT16、INT32和INT64这四个枚举类型,其中INT32和INT64多用来表示中间计算结果,起过渡作用并不会实际储存在内存当中。
2)shape,内存中的数据布局。
3)pad,表示数据需要做填充的维度,一般是由于卷积计算需要造成的。
4)address,张量在硬件内存中存储的首地址,由于pad的存在首地址并不是指向实际有效数据,对于加速器来说张量的形状是shape+pad。
5)add_vilid,判断是否需要给张量分配内存空间。
6)scale和zero_point,根据张量数据量化产生的缩放因子和偏移。
7)output_nodes,该张量流向的节点列表,一个张量可能流向多个计算节点,此属性决定了整个计算图的拓扑结构。
除此之外,Tensor类还定义了一些可以快速获取到张量信息的方法,比如计算填充后的形状、整个Tensor占有的字节大小(填充或非填充)等等。
2.1.2编译器中间优化器
编译器的中间优化是对计算图进行与硬件结构无关的优化,在不影响计算结果的情况下降低模型的空间复杂度以及计算复杂度从而减少模型在加速器上的推理时间。中间层图优化策略中根据粒度主要分为层级优化、张量级优化和元素级优化。
层级优化是从算子层次来简化模型网络结构,常见的有Conv+Relu这样的算子融合以及计算结果为固定值的常量折叠(用常量代替计算表达式)等。下面详细介绍本文编译器实现的bn(Batch Normalization)融合和算子融合方法:
①bn融合
在深度学习中卷积算子通常后面会有一个bn操作来解决训练时的梯度消失等问题,一般的优化策略是在推理阶段将bn计算变换成scale*data+shift的形式,由于卷积计算和bn操作本身都是线性变换,在推理阶段可以将两者融合,即将bn计算的相关参数融入进卷积计算中从而生成一个新的卷积,但这对于该卷积本身的结构本没有什么影响,只是改变了其中的权重数据,最终通过删除bn计算节点达到加速的效果。融合规则如下所示:
X1=WconvX0+bconv#(3.1)
其中卷积层的输入为X0,卷积层的输出或者bn层的输入为X1,bn层的输出为X2;卷积的权重和偏置为Wconv和bconv,bn层学习到的参数有均值μ、方差σ2、扩展参数γ和平移参数β,∈为固定值,为了防止除0的一个非常小的数。最终通过bn融合后形成新的卷积权重和偏置这些参数对于推理阶段是已知的,故在编译阶段就可以求出。
②算子融合
算子融合是将多个计算操作放在一个核心处理单元里进行计算,以避免中间运算结果在内存与缓存之间的移动从而减少加速器对内存的访问,同时还可以减少运行时中间结果的内存存储开销,提高模型在加速器中的计算效率。如图4所示的卷积和激活函数的融合,卷积计算的结果可以在核心处理单元内继续执行激活函数的计算,而不用将卷积计算结果存回再读取进行计算。在计算图Graph的算子顺序列表中,Conv作为算子融合的主体(除了卷积,其它算子基本上都是逐元素计算),而相邻Conv之间的其它算子组合成pu_ops并融合进靠前的一个Conv算子以此形成一个新的融合节点Marco Node。在加速器中一个Marco Node对应着一次完整的卷积操作:首先在脉动阵列中执行卷积计算并把结果保存在输出缓存中,然后再由输出缓存将中间结果送进ALU执行pu_ops里面的线性计算,最终由ALU把结果写回外存储器。在算子融合后的Marco Node中只有ALU最终写回的Tensor以及卷积相关的输入(输入大部分情况为上一个Marco Node写回的Tensor)、权重和偏置需要实际的外存储空间来保存数据,因此算子融合后会将这些Tensor对应的add_vilid设置为True用于后端分配实际内存空间,剩余相关Tensor的add_vilid则全部设置为False。
张量级优化主要是改变张量在内存中的存储情况以便于加速器计算,常用的有张量数据布局转换、相同输入的分支卷积合并等优化方法,其中本文编译器数据布局转换后特征图和权重的存储格式如公式(2.5)所示。分支卷积合并如图5所示,图中3*3卷积和1*1卷积都使用同一个输入特征图,通过将1*1的卷积核补零填充成3*3并与另外一个3*3卷积核合并成一个较大的卷积核,因此在一次卷积运算里就可以得到两个输入特征图,尽管因为对卷积核进行填充增加了总计算量,但减少了输入特征图的内存重复访问开销,而具体能否提升性能需要根据特定硬件来判断,如果是相同尺寸的卷积核大多数情况下都能达到加速的效果。
元素级优化主要是从数据本身入手,最为常用的方法就是模型量化,通过缩小数据位宽来减少数据存储量和模型计算量。
2.1.3编译器后端
在深度学习编译器的后端,会接收优化后的IR进行特定硬件的平台相关优化与硬件指令生成。后端优化的一种方法是将计算图表示IR转换为LLVMIR,以利用LLVM的基础架构生成优化的CPU/GPU代码,而另一种方法是使用深度学习领域知识来设计自定义优化,从而更有效地利用目标硬件。
由于本文基于的CNN处理器属于专用加速器(FPGA),编译器后端的主要工作是将优化后计算图中的相关计算映射在加速器的各个模块上,最终输出加速器执行所需要的指令序列。下面详细介绍本文设计编译器中基于加速器硬件结构在后端所做的工作:
①内存分配管理
编译器需要根据计算图的结构给张量分配内存空间以便于加速器对计算数据的读写,同时还要进行内存管理防止各张量之间地址冲突从而产生的数据覆盖。同时并不是所有的张量都要分配内存空间,比如算子融合后暂存在缓存中的中间结果并不会写回内存,给其分配后会造成内存资源浪费。内存分配的流程如图6所示,在对计算图进行中间层优化后,首先初始化实际外存储器预留给加速器空间大小的首地址P,然后遍历计算图Graph中的Tensor列表,只对add_vilid属性为True的张量分配实际内存大小,每次分配时只需要把当前内存空间的地址指针P指向该张量的首地址,然后根据张量大小对地址指针P叠加并更新,而分配的内存空间大小由张量自身的尺寸来维护,最后重复此操作以完成对整个计算图中张量的内存分配工作。
由于卷积计算存在对输入进行填充的情况,因此给张量分配的内存空间并不是根据实际shape属性,而是由shape+pad来计算size(T),填充空间的数据会根据量化是否对称来决定填入0还是非对称量化的零点偏移。因此加速器在运行前会对每个Tensor的内存空间进行初始化,初始化的值就是填充的值,如图7所示,当计算结果数据写回的时候实际写入的首地址应该是在分配内存时的首地址加上pad的偏移,地址偏移(数据布局为NHWC)的计算公式为:
(C+pad[-1][0]+pad[-1][1])*(W+2×pad[-2][0]+pad[2][1])#(3.4)
其中pad[-1][0]和pad[-1][1]表示C方向前后填充数,pad[-2][0]和pad[2][1]表示W方向左右填充数,pad内的数字为数组的下标。当计算结果全部写回偏移地址后相当于整个张量就已经准备好了,然后当读取的时候就根据张量分配内存时的首地址就可以自动读取到填充后的张量数据。
②计算逻辑管理
计算逻辑管理就是基于加速器的指令集架构将计算操作生成相关指令序列来完成卷积以及其它线性计算。卷积计算是一个6层嵌套循环(如果加上批次为7层,但在CNN模型的实际应用中,批次一般都1),如代码3.1所示,这6层循环分别是输出特征图的宽OW和高OH、输入通道数IC、卷积核的数量OC和卷积核的宽KW和高KH。因为加速器的片上缓存有限,需要对卷积进行循环平铺。通常卷积核的宽和高都比较小(基本上在3到11之间,也有为1的),没有做循环平铺的必要,真正需要做平铺的是OW、OH、IC和OC这四个循环。循环平铺的操作是将每次循环的步长都设为大于1,各个循环的步长又组成新的嵌套内循环来完成真正的计算操作,而外循环主要工作就是完成循环平铺后每个分块寻址的功能,然后将一个块大小的数据读取进缓存,具体划分代码3.2所示。
代码3.1卷积计算6层循环伪代码
代码3.2循环平铺计算伪代码
因此在加速器中完整的卷积计算主要分为三种循环:
1)外循环。外循环的循环次数决定了划分块的数量,同时外循环主要工作就是完成每个分块寻址的功能,然后将一个块大小的数据读取进缓存,如图8所示的输出特征图划分,寻址就是计算图中示例的块1首地址到块2首地址的偏移长度。
2)访存循环。由外循环确定当前分块的首地址后,根据划分好的分块大小在外存储器中读取到对应的数据(划分后的张量块也是高维数据,需要嵌套循环来读取)。
3)内循环。通过访存循环将一个tile块的数据送进各自的缓存后,再由内循环控制缓存将数据送进计算模块中进行卷积计算,因此数据流动的方式是外存储器到缓存,缓存再到脉动阵列计算单元。根据代码3.2所示,最终卷积计算的外循环是4重嵌套循环,而执行计算任务的内循环是6重嵌套循环。
根据卷积循环平铺的原理,可以对每个Marco Node生成相关的指令,Marco Node为算子融合后的新定义的算子节点;指令生成流程如图9所示。在加速器中主要分为两个计算模块:
1)脉动阵列卷积计算。首先生成convSatrtIns指令告知加速器进行卷积计算,然后用baseAddrIns指令指定输入缓存、权重缓存以及偏置缓存在外存储中进行数据读取的基地址。接着是外循环相关指令,由loopIns指令和strideIns组合而成,同理访存循环和内循环也是如此。每种类型的循环都是由多个loopIns指令形成嵌套循环,由代码3.2所知,外循环有4个loopIns指令,访存循环中每个缓存有3个loopIns指令,而内循环有6个loopIns指令。每个loopIns指令下也会生成1个或者2个strideIns指令,strideIns指令表示每次循环各个数据地址的偏移,例如用四层循环访问形状为(N,H,W,C)的特征图,循环长度分别为N、H、W、C,每个循环对应的地址偏移步长则为(H*W*C,W*C,C,1)。三种循环类型之间实则也是一种嵌套关系,外循环每执行一次都要完成访存循环和内循环的所有操作,因此外循环属于上层,而访存循环与内循环属于平级。
2)ALU线性计算。卷积计算的中间结果会保存在输出缓存里,当中间结果累计完成后会送进ALU模型进行线性计算。编译器首先生成aluStartIns指令告知加速器后续指令为ALU相关指令,然后会配置输出张量的基地址(张量写回首地址如何计算在内存分配管理部分已经叙述过)。循环指令首先是遍历输出缓存循环用以取得输出缓存中的计算结果,然后生成输出写回的外循环,这也是起到给输出特征图分块寻址的功能,最后由写回循环将实际数据写回,每个写回的数据首先还要经过comIns类型指令配置的相关线性计算,例如LeakyRelu或Relu相关指令为一个mul指令和max指令(LeakyRelu乘以0.1,Relu乘以0,然后再与原数比较求最大值)。如果是池化算子,会在遍历输出缓存循环前再加两组池化长度的循环,相对应的各个地址偏移也会改变,同时会加一个计数器,例如2*2最大池化每执行4次遍历输出缓存循环才写回寄存器里的值(寄存器会每次更新最大值)。有池化操作的情况下输出缓存里的块大小与实际写回的块大小并不相等,这是因为缓存里的数据块是卷积计算结果的块大小,而ALU写回的数据块是算子融合后最后一个线性计算输出的块大小。对于上采样算子,与池化正相反,在写回循环前加上两组上采样长度循环(目前加速器只支持2*2的上采样)。
最终编译器通过对全部Macro Node进行指令生成以完成对整个网络模型的编译工作,加速器将指令和量化后权重写入内存中进行初始化,然后再将检测图片送进指定的地址空间便可以开始加速器的运算。
2.2优化设计问题分析
目前国内对于专用深度学习编译器的相关研究还比较少(大部分都是基于通用的GPU/CPU平台),在CNN模型应用的部署上还存在很多挑战,下面从三个方面对编译器的进一步优化内容进行分析探讨。
2.2.1支持复杂的跳跃连接网络结构
随着CNN算法的快速发展,研究人员希望通过使用跨层跳跃连接特征图来解决因为网络层数较深导致的梯度消失问题,因此产生了很多复杂的网络结构。如图10所示DenseNet的跳跃连接情况,它是由不同层的各个特征图通过concat算子互相串联而成,其中同一个特征图可能会与多个特征图进行跳跃连接。相较于卷积等计算密集类型算子,concat属于访存密集型,而在加速器中要想实现特征图跨层式的连接,加速器需要将以往的计算结果重新读取进缓存或者一直存在缓存中,但这些设计对于专用加速器来说都是十分复杂的。
如果拼接后各个子特征图的数据在内存空间中仍然是连续的,那么只需要将各个子特征图放在合适的位置就可以直接实现对子特征图和总特征图的数据访问,例如2.1.2小节中的分支卷积合并,目前很多加速器基于的数据布局都为NCHW,在通道C方向的拼接使得在内存中各个张量仍是连续的,因此很容易将图中的output拆分为output1和output2。然而由于数据布局的不同,子特征图的数据在内存中可能是间断存储的,同时同一个特征图可能会有多个无关联的特征图进行跳跃连接,如图10中每个ReLU输出都有部分相同的特征图进行相互连接,加速器处理这种结构逻辑更加困难,需要通过编译器处理来支持这种复杂的网络结构。
2.2.2灵活支持不同的量化方式
对于在专用加速器硬件上的部署模型需要量化成定点整数。量化分为对称量化和非对称量化,从量化公式(2.1)和公式(2.2)可知这两种方式的区别在于非对称量化需要对偏移Z进行处理,相对应在加速器硬件也要有相关的处理模块。如图11所示的PE乘加计算单元,对称量化的输入和权重可以直接进入PE单元,而非对称量化在进入前需要先经过偏移处理单元,因此在加速器固定硬件结构下这对于模型的量化是不友好的,同时加速器一般为了设计简易性都采用了对称量化这种形式,但是如果数据的分布十分不对称就会导致模型量化的精度损失特别严重,尤其是卷积计算后都会有激活函数,而激活函数的非线性操作必然会造成输出特征图的数据分布差异巨大,例如经过激活函数leakyReLU后,特征值在正负半轴的分布范围能达到相差10倍左右。当然,也有相关研究考虑过将使用激活函数Relu将输出数据限定为非负,这样就可以用无符号数来表示数据,同时偏移Z将取为0,但这需要固定激活函数来限定范围,同时在模型的输出末尾一般并没有激活函数来约束数据范围,同样需要处理正负数据都有的情况。
此外,量化方式从位宽长度上还可以继续划分,比如常用的INT8量化和INT16量化。高位宽量化相比于低位宽量化计算精度损失比较小,而低位宽量化却有更低的计算复杂度,这两种方式并没有绝对的优劣。然而当硬件固定后,模型的量化位宽也就固定了,模型无法根据自身数据的分布来选择合适的量化位宽。同时在脉动阵列中,每个PE模块是由一个DSP单元形成的,DSP中执行的是输入全部预留位宽的一次乘加操作,而低位宽量化数据只会占用DSP中预留位宽的小部分,不能充分利用DSP的计算资源,例如DSP48E2最大可以做到18*27的乘法,然而输入不管是16位还是8位其计算时间都是一样的。同时固定的PE数量导致每次加速器核心模块的计算量是不变的,因此低位宽量化并不会减少卷积中的计算次数,由于受到硬件上DSP数量的限制低位宽量化并不能体现出相比于高位宽的加速效果,因此需要将DSP中剩下的预留位宽也利用起来以实现更快的加速。
2.2.3优化循环平铺和循环重排
随着CNN模型规模的增大,有限的片上资源导致了缓存无法存下全部特征图和权重数据,因此需要将特征图和权重进行分块才能在加速器上完成整个网络的计算,即卷积循环计算需要进行循环平铺。加速器每次从存储器加载一块数据到片上缓存,再由缓存进入运算单元进行计算,其中数据的流动如图12所示。特征图和权重的分块尺寸如果太大,缓存可能会装不下从而发生错误;而如果分块的尺寸太小,缓存的利用率会很低,导致缓存与内存之间的数据会频繁更换,最终的耗时也会特别长。
同时输入特征图和权重对应着不同的缓存,而每个缓存的命中情况并不同步,这与卷积计算本身的特性有关,循环类型与缓存的命中关系如表3.1所示,True表示数据命中,而False表示未命中。因为卷积的输入和权重存在数据复用的情况,同一块输入数据会与不同的卷积核进行计算生成输出特征图通道上不同数据,而同一块权重数据会与不同的输入进行计算生成输出特征图平面上的不同数据,因此需要根据硬件结构优化卷积操作中的循环平铺和循环重排来提高加速器的性能。
表3.1循环类型与缓存数据是否更换关系表
Input_buffer | Weight_buffer | Output_buffer | Bias_buffer | |
OW | True | False | True | False |
OH | True | False | True | False |
IC | True | True | False | False |
OC | False | True | True | True |
KW | True | True | False | False |
KH | True | True | False | False |
2.3小结
通过对专用深度学习编译器的基本设计架构进行了描述以及对存在的一些挑战进行了分析,从三个方面提出了专用深度学习编译器的进一步优化设计,分别是支持复杂的跳跃连接网络结构、灵活支持不同的量化方式和优化循环平铺和循环重排。通过对以上分析,更加明确了本文的研究内容和目标,为之后的进一步的优化设计奠定了基础。
3专用深度学习编译器的优化设计与实现
随着深度学习应用的普及,嵌入式设备上已逐渐集成了CNN专用加速器,而如何使神经网络模型高效地部署在这种嵌入式环境下成为了研究热点。深度学习编译能将模型快速地映射在深度学习加速器上,但目前对这方面的研究还比较少,对于卷积神经网络模型的部署还面临在许多挑战,在上一章节已经明确了编译器进一步优化设计的目标:其一,支持复杂的跳跃连接网络结构;其二,在固定硬件结构下通过编译器灵活支持不同的量化方式;其三,优化循环平铺和循环重排来提高加速器性能。以解决上述问题为切入点对专用深度学习编译器提出了一些优化设计以提高模型部署的高效性以及灵活性,在3.2和3.3小节设计了的相关实验来对优化后的性能进行测试,而对于优化后编译器的整体功能测试会在下一章节通过仿真平台进行叙述。
3.1基于内存共享的跳跃连接网络结构处理
很多卷积神经网络的结构之所以复杂是因为存在大量的跳跃连接结构,主要就是特征图拼接算子之间的各种组合,通过硬件设计来处理这种结构比较困难,而这一类算子应由编译器在编译过程中来简化从而生成适应加速器硬件结构的解决方案。
3.1.1内存共享
对于concat或者split这类算子,并不涉及相关数据的计算操作,而且输入特征图和输出特征图在数据内容上会有重叠的部分,这部分重叠的数据应该由涉及到的相关特征图共享而不是让每个特征图各享有一块独立的内存。总的内存空间大小由尺寸最大的特征图来维护,即concat算子和split算子分别由输出特征图和输入特征图来申请内存空间,总内存中的各个子特征图不用再申请额外的内存空间,只需要维护一个在共享区域内的首地址即可,而这并不违背2.1.3小节所述的首地址叠加,因为子特征图之间不会互相覆盖数据,同时总特征图只有读操作,并不会重写覆盖掉子特征图中的数据内容(split则反过来)。
不同的数据布局以及不同的拼接维度都会导致各种特征图在内存中排布的不同,例如NCHW的数据布局以及常在C方向上拼接的concat算子,各个子特征图在各自所属内存中是连续储存数据的,这易于加速器的读取,而对于NHWC这种数据布局各个特征图在内存中却是间断存储的。如图13所示,数据布局为NHWC的A、B、C三个特征图通过通道拼接形成特征图D,整个空间的内存大小分配由特征图D的尺寸决定,A、B、C根据拼接的先后顺序并基于D的首地址得到自己的首地址,由于内存空间不连续,需要编译器通过特殊的编址方式来寻址。
3.1.2共享区域划分和编址
将参与数据拼接或拆分的特征图划分在一个拼接区域——共享区域(如果没有参与就单独为一个共享区域),而这个区域的内存空间大小根据通道数最大的那个特征图的尺寸来计算。如同4.2所示,6个特征图被划分为三个共享区域,它们分别为:{A}、{B,C,D}和{E,F},而其中决定内存大小分配的为特征图A、D和E。在{B,C,D}这个区域中,D首先申请一块内存大小,B和C各自占领其中属于自己的那部分非连续内存(因B、C在整个共享区域内属于子特征图,分布只占用整个空间的一部分的内存),当B、C都完成卷积操作后,D所对应的那部分内存已经写入了作为下一个卷积输入的数据,加速器直接进行卷积计算即可。因此拼接或者拆分操作这类算子的操作对于加速器来说是无需调用内存进行运算的,而编译器在编址后就将拼接或拆分算子从计算图中删除,加速器只管依次序计算Marco Node中的每个卷积操作,所以只要管理好地址之间的偏移关系就可以处理任何这种分支结构。下面分别介绍编译器在连续内存和非连续内存中地址偏移:
①连续内存
这种情况属于没有参与共享内存或者像上一小节所描述的NCHW数据布局下的C方向拼接。假设特征图的数据布局为NHWC,独自为一个共享区域且形状大小为:
shape=(1,h,w,c)#(4.1)
对于每个数据的读取需要根据shape拆分为4个嵌套循环(实际上是3个,在模型推理阶段第一维为1)来控制。当运行最里层的c循环时,每个数据的地址偏移为1;当运行次里层的w循环时,地址偏移为c;而最外层h循环时,地址偏移为c*w,因此定义循环偏移列表stridelist=shape。编译器每个循环的地址偏移计算公式为:
stridei=∏stridelist[i+1:]*perBytes#(4.2)
其中i表示的是第几个维度的循环,perBytes表示每个数据在内存中占多少字节,stridei表示第i个维度循环所对应在内存中的地址偏移。如果是对张量进行分块,此时的stridelist应该等于完整张量的大小,循环仍然按照分块的尺寸来执行,即循环的次数并不总是跟地址偏移长度是一致的。
②非连续内存
在图13所示的内存分布中,各个特征图的数据并不是在内存中连续存储的,为了得到各个子特征图的所有数据,在计算图中给Tensor增加一个属性——Concat_Channel(简写为cc),这表示与该特征图所属共享区域中参与拼接其余特征图的总通道数(为0表示单独一个共享区域)。因此对于公式(4.1)所示形状大小的特征图,其地址循环偏移列表:
stridelist=(1,h,w,cc+c)#(4.3)
对于每个循环地址的偏移仍然用公式(4.2)所示计算。这种情况shape和stridelist的区别在于一个是特征图自己的通道c,另外一个是所属共享区域的总通道cc+c,cc也表示特征图在内存中每c个连续数据就会间隔cc个数据,而访问数据的循环数仍然用shape来表示就可以访问到非连续内存里的数据。对于其他维度或者其他数据布局的拼接情况也可以增加相应的Concat_Weight和Concat_Height这些属性,因此对于编译器只需要划分共享区域分配首地址和在Tensor中增加一个额外属性的负担就可以通过地址偏移指令来处理这种数据在内存中不连续的情况,其中读操作与写操作的地址偏移计算是一样的。
3.1.3特征图深度复制与算子交换顺序
若一个特征图与其它多个没有关联的特征图都做拼接,即一个特征图可能同时属于两个不同的共享区域,如图15左边所示有两个共享区域:{A,B,D}和{A,C,E},这两个区域有重叠部分特征图A,因此当给特征图A设置首地址的时候,编译器不知道根据特征图D还是特征图E去求A的首地址。因此如同4.3右边所示,增加了一个深度复制的算子——Copy,将特征图A深度复制成特征图A′和A″,此时共享区域变为{A′,B,D}和{A″,C,E},Copy算子同样会参与算子融合。对于Copy算子的处理就是将A(特征图A没有实际内存)对应的卷积输出经过ALU模块后分别存入到特征图A′和特征图A″当中,因为两者数据是一致的并不需要额外计算,A在ALU模块计算完成后将结果写回A′和A″的两个地址,即在图9的ALU模块指令生成中只需要多一个设置输出基地址的指令和每个写回循环下多一个地址偏移指令(偏移由A′和A″各自所属的共享区域计算)。
拼接类算子是由编译器通过共享内存和编址实现的,在硬件结构上并不需要多出相应的计算模块。如果计算图中拼接类算子的输出又作为输入流向了pool或者其它线性计算算子,例如激活函数等,需要对计算图结构做出相应的转变。例如图16所示的yolov4tiny网络里的残差结构,图中第二个拼接算子后有一个最大池化操作,最大池化或者其它线性计算算子是直接对输出缓存里的卷积结果进行计算,而拼接类算子的处理针对的是外存储器里面数据的地址逻辑,为了实现两者的一致性,将最大池化或其它线性计算算子向前移动与拼接类算子交换顺序。这里只能支持特征图通道C方向上的拼接或者拆分操作,因为池化和激活等算子是在特征图平面上的操作,而各个通道之间是相互独立的,交换顺序并不会影响整个网络的计算结果。此外还可以交换Maxpool与激活函数的顺序,因为Maxpool在前面能够减少做激活计算的次数。
利用内存共享和编址可以实现对多个特征图的拼接,再经过特征图深度复制划分内存共享区域可以进一步简化错综复杂的跳跃连接结构,同时需要交换计算图中的一些算子顺序来契合加速器的硬件结构。通过以上设计基本可以支持大部分有跳跃连接结构的复杂网络模型。
3.2卷积神经网络模型的量化方案
基于通用平台处理器的模型量化通常并没有考虑对偏置的处理,因为偏置做的是加法计算且量化偏置对性能并没有什么提升,所以偏置仍然是用浮点数处理并在计算过程中存在量化和反量化操作。然而浮点计算在FPGA这种架构上却是比较复杂的,同时量化还分为对称量化和非对称量化,非对称量化在计算过程中还需要考虑对偏移的处理,这对处理器来说是需要额外的加减法模块来计算偏移,因此对于模型的部署需要考虑对偏置的量化和偏移的处理。
3.2.1基于偏置与偏移融合的量化处理
根据卷积神经网络的计算原理和量化公式(2.2)可得卷积计算过程的量化公式为(这里以处理非对称量化为例):
其中∑表示卷积求和,q1、q2、q3、S1、S2、S3、Z1、Z2和Z3分别表示输入定点数、权重定点数、输出定点数、输入的缩放因子、权重的缩放因子、输出的缩放因子、输入的偏移、权重的偏移和输出的偏移。因为CNN专用加速器处理浮点运算比较繁琐,模型的各张量在整个计算过程中都是由定点整数表示的,那么就必须对偏置(bias)也进行量化,偏置的计算在本文加速器中是放在脉动阵列累加过程中的,因此偏置的量化为:
B=round(bias*S1*S2)#(4.5)
量化偏置后完整的卷积量化公式为:
由于表示的是浮点数,取其中2-n可以用右移n位操作表示,M0为整数;(n值越大误差越小,n的最大取值跟硬件结构有关),因此对于缩放因子的转换可以用乘以一个定点数和右移来实现,这些操作是放在ALU相关模块里进行的。
对于非对称量化,输入和权重需要有一个减偏移的操作,同时输出也有一个加偏移的操作,即CNN专用加速器在将输入送进卷积计算前需要增加一个减法模块,同理在将结果写回的时候也需要一个加法模块。由于对偏置bias进行了量化,可以将对偏移Z的处理一起放入偏置中,同时得益于权重的数据分布是比较均匀的,在业界基本上都是采用的对称量化即Z2=0,即非对称量化一般只针对于输入,根据卷积计算的分配律,卷积计算公式变为:
S1、S2、S3、Z1、Z3、q2和bias为定值,在模型推理阶段都不会发生变化,∑Z1q2为Z1和q2的卷积计算,可以在编译阶段事先计算好,即B′也是一个定值,融合了输入的偏移和输出的偏移作为新量化的卷积偏置放进脉动阵列,而加速器处理这种非对称量化也只需要像对称量化一样计算q1q2的卷积即可,这在同一个硬件结构下处理对称量化和非对称量化是通用的。
针对于跳跃连接网络结构的量化,为了实现连接后特征图中数据的缩放比例一致,需要将连接前所有特征图的数据分布统一起来计算公有的S和Z,这样就可以直接使用连接后的特征图进行后续计算。
3.2.2INT8/INT16可变位宽量化
量化是用定点整型来表示32位浮点数,因数据分布范围的不同一般采用的是INT16量化或者INT8量化。在实际模型的部署应用中,专用处理器上往往会存在多个模型,比如人脸识别系统上就有人脸检测和人脸识别两个模型,一些模型因精度损失和检测速度需要采用了不同的量化数据位宽,而处理器架构只有一个,因此编译器需要实现对可变位宽量化的处理。
加速器里的每个PE模块是由一个DSP单元实现的,而在PE中做的是一次乘法操作(暂时不考虑加法),INT16量化时计算的是一个数据点的结果(或者中间结果),而INT8量化方式在一个PE里可以同时计算多个数据点的结果,如公式所示:
(A<<m+B)*(C<<n+D)
=AC<<(m+n)+AD<<m+BC<<n+BD#(4.8)
其中A、B分别表示两个输入;
C、D分别表示两个权重;
m、n表示移位的位数;
<<表示左移;
如果满足BD<1<<n,BC<<n<1<<m,AD<<m<1<<(m+n),可以通过将计算结果进行数据位宽拆分分别得到AC、AD、BC和BD的结果,因为它们并没有相同bit位上的数据重叠。因此同时将两个输入和两个权重值进行移位相加送入PE能同时得到四个计算结果(这是对于输入和权重都为正数的情况,存在负数的情况会在后面讨论),但这是理论上的,由于硬件的限制并不能实现同时输入和权重的移位相加,例如高位宽量化为INT16,低位宽量化为INT8,满足公式(4.8)的m和n分别至少取和16和32,PE中两个输送通道的最大预留位宽没有办法装下左移32位的数据(DSP48E2中最大位宽也才27位),因此只能采用输入移位相加或者权重移位相加的形式,下面分别介绍这两种方法。
①输入移位相加
送进PE乘法输入通道中的双重输入必须是作用于不同输出结果,在特征图C方向的数据因要进行累加所以不可取,因此拆分输入要从特征图平面入手。如图17所示,根据送进PE输入通道两个数据的位置的距离,可以分为相邻式输入移位相加和对半式输入移位相加,图中假设的是步长为1的3*3卷积计算。
相邻式输入移位相加是与下一个相邻输出点对应同一位置的输入值进行数据移位相加后再送进PE,计算的结果经过拆分将会对应输出特征图上两个相邻的输出点。下一组输出的步长为2,相对应的输入特征图的步长也为2,这种方式实际上就是对输出特征图的二分。对半式输入移位相加,即输出特征图的上下均分,会跨越式的读取下半张输出特征图对应的输入数据,而上下输入点之间的距离是固定的(相邻式的固定距离为1),因此同样可以每次轻易地寻找到下面的输入数据进行移位相加后送进PE进行乘法计算,此时输入的偏移步长为1,只不过循环的行数OH需要减半。
②权重移位相加
对于同一个输入,单个卷积核平面的不同权重跟其点乘结果的逻辑不好控制,而不同通道上的权重跟输入又不是一个维度的,因此权重移位相加的两个值只能来自不同卷积核上对应的同一位置。如图18所示,与输入移位相加类似,相邻两个卷积核上同一位置的权重进行移位相加后送进PE的权重通道,做完计算后的结果拆分对应于输出特征图同一位置上的两个相邻通道值,单个卷积核的计算流程不变,此时相当于卷积核的数量OC减半了。
对于有符号数的移位相加,最后乘法计算结果直接拆分后会有误差。如图19中的示例,参与计算的均为3位有符号数,左移6位后最终乘法计算结果为12位有符号数,其中高6位和低6位分别为参与移位相加前两个数与被乘数的计算结果。从图中可见,高6位的结果有偏差,需要加上低6位的符号位才为正确的计算值,因此在对PE的输出结果进行拆分时,高位数据需要加上低位数据的符号位。
在脉动阵列中每个PE单元会累加上一个PE的输出结果,然后送入下一个PE单元继续进行累加,为了保证与INT16量化计算过程的一致性以及INT8量化模式下低位结果在累加过程中产生的进位不会覆盖高位数据的内容同时高位结果也不会溢出,会增加一个“溢出位”用于兼容数据累加的进位。例如INT16量化和INT8量化,对公式(4-8)只考虑INT8量化方式下PE输入的移位相加,公式为:
(A<<m+B)*C=AC<<m+AB#(4.9)
此时AB的结果为16位,单个PE的话m只取16即可,但多个PE可能会存在进位的情况,通过增加溢出位可以保证不会影响到高位数据的内容,最终PE输出结构如图20所示。溢出位的选择跟硬件结构有关,即累加PE的数量(考虑最坏情况下会进位多少次,然后取对数),因此m的取值应该为16加上溢出位的位数。但由于DSP中的输入通道位宽有限(加速器中DSP48E2最大能实现18*27的乘法,不考虑溢出位已经占了24位,只剩下3位容错),溢出位无法加在m上对输入进行移位相加,因此m仍然只取16并且放弃了DSP中的加法功能,即在加速器中上下PE不再直接相连进行累加,而是在外面增加一个累加模块,将每个PE的输出拆分并进行“溢出位”的移位(此时也会完成有符号高位结果加低位结果符号位的操作)拼接后再在新的累计模块中进行累加,最终减少了乘法的时间而增加了加法的时间,但在硬件中乘法会比加法慢10倍以上。这些是本课题组为了支持可变位宽量化对加速器与编译器所做的协同优化,编译器会生成量化位宽长度的指令信号和计算进行移位相加两个数的相对地址偏移,同时指定结果累加的路线,INT16量化按照原加速器模式进行累计计算,INT8量化则会进行输入移位相加并且走新的累计路线。
一个输出点的所有对应点乘累加计算完成后会加上融合量化后的偏置B′,因为在INT8量化下,一个计算结果实际上是两个点的输出值,所以B′也会进行拼接。如果是PE权重拼接,拼接的B′是取自不同卷积核对应的值;如果是PE输入拼接,拼接的B′是同一个值。
INT8量化输入数据在不同位置的数据格式如图21所示,上下对应位置的输入仍然存在INT16量化数据格式缓存中(分别存在高低位),输入缓存向PE写入的数据对于量化位宽是透明的,每次都会送进16bit,再根据编译器生成INT8相关信号指令进行m位的移位相加操作,然后送进PE里面,如果是INT16量化,则跳过此操作,因此对于INT8模式仍然能充分利用INT16的输入缓存,同时也不需要改变缓存结构。
3.2.3模型量化流程
通过上面两个小节对量化偏移处理以及INT8/INT16的可变位宽量化进行了设计,编译器可以不用再改变硬件就可以实现多种量化方法,编译器的模型量化流程如图22所示(INT8采用了输入的对半式上下移位相加),具体步骤包括如下:
①运行校准集,获取特征图的动态分布范围,主要是获取其在校准集中的最大值和最小值,权重由于在推理阶段是静态值,所以不需要校准集也能获取其分布范围。
②检测量化位宽选项,这里目前只支持INT8和INT16两种形式,如果是INT8量化会生成相应的标志信号,此标志在编译器后端会生成相应的指令Int8_Ctr_Instruction用于告知加速器本层卷积量化数据位宽为INT8(默认是INT16)。
③遍历计算图并判断特征图之间是否有跳跃连接的关系,如果有,则进行缩放因子和偏移的统一。
④检测量化编译形式选项,根据上一步INT8或INT16的选择计算出缩放因子scale和零点偏移,如果为非对称量化,将偏置和偏移进行融合。
3.2.4实验结果与分析
本文量化设计在开源FPGA卷积神经网络加速器——DnnWeaver上进行验证,经过优化设计后通过编译器处理使该处理器既能支持INT16量化也能支持INT8量化。该加速器片上系统首先使用硬件描述语言进行建模,然后通过综合与实现后将其烧写到UltraScale+MPSOC架构系列的XCZU19EG开发板(见图23)上,FPGA中时钟为100M,CNN加速器占用的资源情况如图24所示,可见为了减轻资源受限目标设备的存储与带宽压力,有必要在编译器中实现量化功能。本小节实验为在固定硬件下不同量化方案的验证以及对比优化后的部分性能。
通过基于3.1小节对跳跃连接网络结构的处理设计,本次测试的网络模型选用了yolov4tiny,它是yolov4模型的精简版,属于轻量化模型并常用于目标检测任务。如图25所示,整个网络结构有38层,其中使用了三个残差单元,每个残差块的结构都如图16所示,本节实验也是对跳跃连接网络模型可支持性的验证。在固定加速器硬件下,编译器对yolov4tiny模型采用了INT8非对称量化、INT16对称量化和INT8对称量化三种量化方式,本次实验测试集为VOC2007-test,置信度Confidence=0.24以及nms_iou=0.5,除了编译器处理的几种方式外,还有量化前原PyTorch框架浮点模型以及用Pytorch量化工具的常规非对称量化计算两组对比实验,它们均在CPU下运行,CPU的规格参数见表4.1。
表4.1CPU系统规格参数
CPU参数 | 规格大小 |
操作系统 | Ubuntu 20.04 |
型号 | Inter(R)Core(TM)i9-10900X |
主频 | 3.70GHZ |
核心数量 | 10 |
二级缓存 | 10MiB |
表4.2不同量化类型参数量、平均精度和帧率对比
最终的实验结果如表4.2所示,从表中可以看出INT16量化和INT8相较于原模型可以将参数量分别减少到1/2和1/4,而在CPU上同样是INT8量化方式用Pytorch量化工具处理的模型参数比在专用加速器上量化略高的原因是因为没有对偏置进行量化,仍然用的是浮点数FP32,而在专用加速器上偏置为了防止量化过程中溢出采用了较高位宽的INT16,但也比原模型的浮点数较小。在精度损失方面,INT16量化实验组尽管采用了对称量化,但凭借着位宽长度的优势仍然有着比INT8非对称量化更低的精度损失。INT8对称量化的精度损失比较高,因为模型中激活函数采用的是LeakyRelu,导致了特征图的正负分布极其不平衡,负半轴大部分精度都是浪费的,因此对于低位宽采取非对称量化是非常有必要的,最后能将精度提升了约6%。而在加速器上对偏置进行量化的INT8组反而比在CPU上不对偏置量化的INT8组精度损失略低,其原因可能是在加速器中对数据取整的策略和CPU中取整的方式不一致,从而导致了在加速器中的最终计算结果反而更接近于原浮点模型。因为在FPGA中的右移操作是向下取整,因此为了提高精度本文采用了先加上0.5再右移的策略以实现四舍五入取整方式,0.5的二进制表示形式为:
{~data[m],{n{data[m]}}}#(4.10)
其中{}表示二进制的位拼接,~表示取反操作,data为需要右移的二进制数,m为最高符号位,n为右移数减1。
在模型计算加速方面,相比于CPU的浮点计算,INT16量化加速比为1.40,而INT8量化的加速比为2.60,而通过Pytorch量化工具的推理速度特别慢的主要原因是在计算过程中存在大量的量化与反量化模块。本小节通过实验验证了在固定加速器硬件下多种量化方式部署的可行性,同时INT8量化相比INT16量化还有着接近2倍的加速比。
3.3卷积计算循环调度优化策略
由于有限的片上资源,各个缓存无法一次性存下完整的特征图和权重,需要将数据进行分块处理,每一块都能执行卷积操作来计算中间结果,同时缓存还可以避免频繁的外存储数据访问,本小节将会探讨如何优化特征图分块和循环重排的调度从而使卷积计算效率达到更高。
3.3.1权重缓存带宽优化
在做循环调度优化前,需要先对本文基于加速器中权重缓存的带宽进行优化。根据卷积计算的特性得知每个卷积核之间的计算是独立的(每个卷积核对应于输出特征图的一个通道),因此多个卷积核的计算在加速器中是并行进行的(即一个输入会与多个权重进行并行计算),而当脉动阵列中计算数据更换时,权重却需要更换数倍于输入的数据量(数倍由并行程度决定,也就是脉动阵列中PU的数量)。如图26所示,图中输入的通道为32,并行计算的卷积核组中卷积核的数量也为32,假设在脉动阵列中PE的规模为32*32,当从卷积核计算点1到计算点2时,输入缓存会在单位周期内重新输送32个数据到脉动中,则相对应的权重缓存需要重新输送32*32个数据,即在一个时钟周期内缓存需要送8196bit数据进脉动阵列(假设量化类型为INT8),尽管对于加速器中的已经对数据做了量化处理,但这对于权重缓存的带宽压力仍然特别大,不易于加速器时序的收敛。
由表3.1可知卷积计算不同的内循环顺序(与外循环一致)会产生三种数据固定:
①输入固定(input stationary)——先做To(OC)循环;
②权重固定(weight stationary)——先做循环ow、oh(OW、OH)循环;
③输出固定(output stationary)——先做KW、KH、Ti(IC)循环。
其中输出特征图的宽OW和高OH、输入通道数IC、卷积核的数量OC和卷积核的宽KW和高KH,小写字母表示内循环。
如图27所示,每个PU计算单元负责一个卷积核的并行计算,而在PU内部有32个PE计算引擎执行乘加计算。同样在weight stationary模式下,ow、oh循环内SA中的输入数据每个循环周期都在更换,即每个循环周期会送进32个输入数据进入SA的输入流水线队列(图中进入后第一个周期会执行a0的计算,然后下个周期会执行a1的计算),权重缓存会在一开始对应输入送进32*32个权值数据进入SA的权重流水线队列,然后权重缓存便空闲了。本文这里去掉权重的流水线形式,在ow、oh循环的每个周期内只会输送在当前周期输入数据执行计算所对应PU中各个PE的权重数据(即权重缓存每次只会输送相对于SA一行的32个权重数据),因为期间不会更换新的一组32*32数据,所以分32个周期将权重送到SA中,这样权重缓存的带宽压力就能降低成和输入缓存一样,当然这一切的前提是保证内循环是weightstationary模式且ow*oh总的循环周期数要大于单个PU中PE的数量才能满足送完,这需要编译器在做循环平铺时进行把控。
在编译器设置内循环的地址偏移时,对于ow、oh循环中对缓存的地址偏移需要进行特殊处理;文中大写字母为外循环,小写字母为内循环,因此ow、oh为内循环。在正常情况下的ow循环(假设内循环顺序为ow、oh、Ti/32、To/32、KW、KH),输入缓存和输出缓存的地址偏移都为1(缓存的宽度是32个数据),而权重缓存则是没有地址偏移的,只有等到做Ti/32循环时才会因更换权重数据设置相应的地址偏移。此时在ow循环的权重缓存地址偏移设置为1,而在oh循环的地址偏移设置为ow的大小,当满足ow*oh>=32的时候,Ti/32循环切换到下一批权重需要读进时上一批本应在单位时钟周期读写完的权重数据分32个周期内完成了工作,当ow*oh超过32的时候,SA也只会接收前32个周期的权重数据。通过编译器如此设计也是为了提高加速器的时序,因为在带宽优化前该加速器跑100M时钟也比较难收敛。
3.3.2基于时延的循环调度优化策略
在2.1.3小节中描述了循环平铺后的三个循环操作,外循环是来确定每次循环各个tile块的首地址,根据表3.1不同的外循环顺序涉及到缓存中的tile块的数据是否更换;访存循环是将需要更新的数据分块写进各个缓存中,消耗的时间由总的更新数据量和外存储器的数据带宽决定;内循环可以理解成脉动阵列做流水计算的计算时间消耗,主要也跟循环顺序有关。因此整个卷积计算的时间消耗主要分为两类:①内存访问。在做嵌套外循环的时候,不同的循环类型会产生不同的数据搬移情况,例如做OC循环的时候输入缓存里的数据是不需要更换的,而权重缓存就需要更换相应一个tile大小的数据。如图28所示的多层嵌套循环中,从最底层到最外层,一旦某层循环开始更换缓存里的数据,缓存总的需要更换数据次数为该层的循环次数向外层循环次数做累乘,因为外层循环每循环一次都要做完完整的内层循环,以此类推。在整个卷积计算过程中,每个缓存对外存储器总数据访问量的计算如算法4.1所示,最终用总数据访问量除以外存储器的数据带宽即可得到内存访问大约的消耗时间。②SA计算(ALU里做的是流水计算,时间主要集中在将最终结果写回,属于输出缓存内存访问)。脉动阵列计算所消耗的时钟周期与内循环同步,在流水计算形成的情况下,每一次循环消耗一个时钟周期,在这期间缓存会把需要的数据送进脉动阵列,同时脉动阵列“流水式”地执行一次乘累加计算。在加速器中,每次循环类型切换都会涉及到一些状态机的改变,这是需要额外开销的。内循环SA消耗时钟周期计算如公式(4.11)所示,其中{an}表示的内循环顺序对应的循环数,b表示切换循环的额外开销,显然{an}按照从大到小排列对于计算公式(4.11)来说数值是最小的,因此SA的最小消耗时钟周期的计算如算法4.2所示(这里考虑了3.2.2所述的权重带宽优化)。
an(…(a2(a1(a0+b)+b)+b)…)#(4.11)
在上述两种时间消耗中会有重叠部分,由于各个缓存采用乒乓缓存的设计格式,一半缓存在将数据送进脉动阵列进行计算的同时,另一半将会下一个分块的数据从外存储器中写进缓存,从而可以达到隐藏内存访问延迟的效果。如图29所示,由于分块大小的不同以及内外循环顺序的不同,计算的时间并不一定能完成隐藏内存访问的时间,即当前分块已经计算完而下一个分块还未写完(也有可能早已写完),这时脉动阵列就不得不停止等待,这部分因内存访问还未结束而SA还需要等待的时间称为“内存阻塞”。特殊的内存阻塞是最开始的从内存中读数据和所有计算完成后将最后一块数据写回内存,这段时间由于加速器都是空闲的,所以整个时间段都属于内存阻塞阶段。
对于上述的几个方面,因循环平铺分块大小、内外循环顺序和缓存大小等硬件参数的不同,会产生不同的计算性能。而一个好的循环调度策略的目的是达到很低的计算时延,本文基于实现加速器消耗的时钟周期最少,提出了一种循环调度策略。如图30所示,首先外循环顺序采用枚举(固定120种计算顺序)的方式,不同的外循环之间通过多线程的形式进行循环平铺尺寸空间探索,循环平铺的尺寸同样用枚举的形式从而得到每个缓存对应的分块数据大小(ow*oh需要大于32),然后根据FPGA硬件的信息去计算该种方式消耗的时钟周期,计算伪代码如算法4.3所示,最终通过比较采用消耗时钟周期最小的循环调度方案。在算法4.3中,由于每个缓存一旦在某层循环开始更换数据,外层的所有循环根据表3.1无论是否会更换数据,都以当层循环为分界点,内层的所有循环数表示数据固定不变的周期Ts,而后面的循环总数为需要更换的周期Tc,即每Ts个周期间隔会更换一次缓存里的数据,总共会更换Tc次。而随着循环的往外后退,在这Tc次循环里面会逐渐增加其它缓存需要更换的数据。最终计算出每次外循环访存消耗的时钟周期减去最小且固定的脉动阵列计算的时钟周期即可求出相应的内存阻塞周期。
3.3.3实验结果与分析
表4.4加速器相关参数
FPGA加速器相关参数 | 规模大小 |
脉动阵列规模 | 32*32 |
循环切换状态开销 | 2(clock) |
DRAM带宽 | 256bit/clock |
输入缓存 | 16*32*3072bit |
权重缓存 | 16*32*2048bit |
输出缓存 | 64*32*2048bit |
偏置缓存 | 32*32*512bit |
本小节实验使用的加速器架构以及FPGA开发板和3.2.4小节的量化实验一致,测试模型选用了yolov2tiny、yolov3tiny和yolov4tiny三种模型。由于目前没有其它编译器能对本文基于的专用加速器提供编译支持,因此仅对编译器自身优化前后进行实验对比。其中加速器的相关参数如表4.4所示,对比实验为优化前的手动卷积循环平铺和循环重排,实验均基于权重缓存的带宽优化,测试数据为检测3600张图片的平均运行时间,最终实验结果如图31所示。
从图31可见,尽管yolov4 tiny的卷积层数更多,但由于很多卷积都是1*1且在yolov4 tiny前两层中卷积步长为2,因此相比于层数更少的yolov2 tiny和yolov3 tiny,yolov4 tiny的推理速度反而更快(yolov2 tiny中卷积核的数量比较多且只有最后一层输出为1*1卷积)。通过三个模型在编译器优化前后的性能对比,卷积计算循环调度策略能将性能提升10%-20%。本文的循环调度优化策略只是粗略地估计出加速器的执行时间,但是也可以作为一种性能标准,最终通过实验也表明了循环调度优化策略能充分利用加速器的资源达到提升性能的效果。
3.4小结
首先设计一种内存共享和编址的方式,并通过特征图深度复制与算子交换顺序来简化计算图使编译器能支持跳跃连接网络结构;其次在固定的加速器结构上设计了不同类型、可变位宽的模型量化方法,同时通过实验验证了不增加DSP资源的情况下INT8相对于INT16的加速比;最后在优化权重缓存带宽的基础上设计了基于时延的卷积计算循环调度优化策略,再通过编译器优化前后的实验对比体现了优化策略的性能提升。
4编译器整体功能测试与应用验证
本文在第三章对编译器的基本设计架构进行了介绍,并在第四章节完成了进一步的优化设计同时并通过相关实验测试了其性能,本章主要是将通过cocotb仿真平台对优化后编译器进行整体的功能展示与测试以及对目标检测任务的应用验证。
4.1编译器目录结构
编译器的目录结构如图32所示,其中每个子目录都对应着编译器的一个功能模块,所有模块互相协同完成CNN模型的编译过程,各个功能模块的具体工作内容的解释如下:
①compiler。编译器后端,用于将CNN模型的计算操作转换成对应硬件执行的指令序列,包括一个卷积计算编译器(conv_compiler)和一个算子融合后的线性计算编译器(pu_compiler),同时还会负责对需要的特征图进行内存分配管理。
②FPGA。硬件平台的相关RTL代码,还包含了脉动阵列的规模和缓存大小等信息。同时负责FPGA的内存管理,另外提供仿真过程中进行计算图权重数据初始化、送入输入数据和获取输出结果的接口。
③graph。计算图,编译器定义的中间表示IR。主要由张量Tensor、计算节点NodeOp等数据类型通过拓扑关系所组成。
④isa。加速器对应的指令集架构系统,在compiler模块中主要根据此指令集生成相应的指令序列以完成模型在加速器上的映射。
⑤optimizer。计算图优化模块,包括算子融合优化和对跳跃连接处理的计算图结构变换等,并在相关Tensor里修改Concat_Channel的数值(初始化为0)。
⑥parser。深度学习模型解析器,用以将CNN模型转换成定义的计算图形式,支持载入模型文件的格式为ONNX。
⑦quantization。编译器量化模块,在固定硬件结构下支持多种量化方式,包括INT8对称量化、INT8非对称量化、INT16对称量化和INT16非对称量化。非对称量化模式的输入为非对称量化,权重仍然使用对称量化。
⑧schedule。卷积循环调度模块,在搜索空间内寻求最优的循环平铺和循环重排方案。如果是INT8量化的类型,OH属性在调度时会减半。
⑨sim。仿真模块,将编译器生成的指令和对应权重文件在基于Python的IC验证平台——Cocotb上进行加速器的仿真测试来验证指令的正确性。
4.2编译器功能测试
为了测试编译器整体结构的编译功能,本小节选用的测试网络模型为yolov4tiny模型且输入的尺寸大小改为480*352,这也是为了验证编译器在非正方形尺寸输入网络模型上的可行性。因为网络模型在FPGA开发板上的实际运行性能在第四章的相关实验中已经展示,因此本章中主要通过仿真来进行编译器的整体功能测试和加速器的应用结果验证。下面介绍其中主要模块的运行测试:
①量化模块
由于片上资源受限和专用加速器处理浮点计算的复杂性,在编译器中增加了量化模块来实现模型推理的加速。通过对量化方案的设计,编译器可以在固定硬件结构下实现多种量化类型,本节的测试量化选项选择为INT8非对称量化。如表5.1所示的yolov4tiny前6层卷积的量化情况,在网络结构中Conv2和Conv5、Conv3和Conv4的ALU输出会进行Concat操作,因此会进行统一处理,ALU输出结果会作为输入进行下一层卷积参与计算。因为本编译器不管对称量化还是非对称量化,权重的量化统统采用的对称方式,区分只在于输入特征图的量化方式。因为加速器中没有处理zero_point的模块,对于输入的非零zero_point通过编译器融入到量化后的bias当中,因此明面上加速器中输入采用的也是对称量化,即zero_point=0,但它的scale却是通过非对称量化方式获得的,只是将真正的zero_point隐藏在了bias当中,这样可以减少加速器计算的复杂度。
表5.1yolov4 tiny前6层卷积权重和输出特征值的缩放因子
Layer | Weight_Scale | ALU_Output_Scale |
Conv0 | 0.124245524 | 0.138176888 |
Conv1 | 0.025978136 | 0.121351070 |
Conv2 | 0.015619760 | 0.065793789 |
Conv3 | 0.009466293 | 0.087572626 |
Conv4 | 0.006844555 | 0.087572626 |
Conv5 | 0.011748414 | 0.065793789 |
②计算图优化模块
经过量化模块对模型权重进行压缩后,计算图将由optimizer模块进行优化,其中的操作包括bn融合、算子融合等。在图25所示的yolov4 tiny结构中,前三层操作为conv+bn+leakyRelu,经过计算图优化后的结构如图33所示,融合的新节点为一个Macronode,其由sys_array_op和pu_op_list组成。sys_array_op就是用于在脉动阵列中计算的卷积算子,而pu_op是负责从输出缓存直接到ALU模块进行的相关线性计算,从图中可见因bn融合后在pu_op里面并没有bn算子,只有leakyRelu激活函数,而bn是将相关参数融入到了卷积计算的权重和bias当中,这样可以减少模型的计算量。pu_op中还有与模型结构本身无关的算子TypeCast,这是因为无论是卷积计算还是其它的线性计算都会让其计算结果的数据位宽变大,比如INT8类型的卷积经过加bias后最终结果是32位的,其相应的缩放因子也是权重和输入的乘积,最终需要根据量化需求将其转换为8bit,而TypeCast的负责的工作就在于此。图中可见每个算子节点的input_Tensors和output_Tensors决定了整个计算图的拓扑结构,conv0的前向输入包含了data、weights和bias这三个张量,而后向输出为卷积的计算结果,其位宽为32位且对应的缩放因子为属性out_scale(只是卷积算子输出的sacle,为输入和权重缩放因子乘积,即也是bias的缩放因子,量化检验集统计的是ALU最终输出的缩放因子),因此在计算图优化后conv0的实际拓扑结构如图34所示。图34中的卷积计算结果conv_out是放在输出缓存当中的,然后再进入ALU模块进行pu_op里面的计算,最终存回外存储器的结果为张量out1的数据(如果没有激活函数,存回的则是张量out0的数据),同时在外存储中也只有最后写回的张量才会分配内存,可以起到节约内存的作用。
另外,对于图25中yolov4 tiny的第一个残差块,其第一个卷积(结果会与最后一个卷积结果进行通道方向的拼接然后做一个最大池化,经过4.1节的分支处理策略后第一个卷积(总网络结构的第三个卷积)以及算子融合后的结构如图35所示,分支处理是将拼接操作和最大池化交换顺序并将拼接操作从计算图中删除,因此对于残差块第一个卷积的Macro Node中pu_op里有相对应的Maxpool算子,同时其输出的concat_c属性为另外一个分支做Maxpool操作后结果的通道数。最终分配内存空间后残差分支结构输入张量与输出张量的首地址如表5.2所示,整个内存空间是根据输出张量的大小进行分配,拼接位于前面的Maxpool0张量的首地址与输出张量(下一个残差块的输入)的首地址一致均为0x41157800,而位于拼接后面的Maxpool1张量的首地址与前面的相差了0x40,即64个INT8数据的地址长度,正好为Maxpool0的通道数。它们间断的地址长度为属性concat_c,当Maxpool0与Maxpool1均已写回时,下一个残差块的输入数据自然就准备好了可以直接从内存中读取连续的数据。
表5.2残差分支结构输入张量与输出张量的首地址和大小
张量 | 首地址 | 大小(B) |
Maxpool0 | 0x41157800 | 88*120*64 |
Maxpool1 | 0x41157840 | 88*120*64 |
Nextresblockdata | 0x41157800 | 88*120*128 |
③卷积计算循环调度模块
因加速器片上资源受限需要将卷积计算进行循环平铺,循环调度模块负责在搜索空间内寻求最合理的分块方案和循环执行顺序。如图36打印的编译器循环调度寻优日志,图中展示的是前两层卷积在遍历搜索空间过程中不断更新的最优调度方案(第一层输入为3通道不能满足32个PE的累计需要填充成32通道,加速器在优化改进时为了避免此操作对第一层做了特殊处理,所以编译器需要将第一层平面分块尺寸固定为8*8)。日志第二层中OH这个循环方向的总数为44,并不是在原模型结构中的88,这是因为选用了INT8量化模式且用的是输入上下式移位相加,即对应输出的上下拆分,因此OH总的循环数减半用以同时计算上下的结果。IC和OC分别对应着脉动阵列的行与列(32*32),所以在进行划分时的粒度为32,最终通过比较选出了最优的循环调度方案,在第二层由于输入通道数和卷积核的数量都比较小,因此在外循环中划分的只有OH/oh和OW/ow,而内循环的循环顺序自然基于权重优化带宽的前提下进行从大到小排序。
④指令生成模块
最终编译器生成的指令如图37所示,图中展示的是conv0生成的部分相关指令。0000操作码表示的是卷积操作开始,然后通过操作码1001设置输入、权重和偏置在内存中对应的首地址,即每个缓存从外存储器中读写数据的基地址,后面循环指令的地址偏移都是基于此,由于指令的立即数字段只有16位宽,因此每个缓存对应的两条指令来设置基地址的高低地址,总共6条指令;之后便是由1101操作码指令来设置INT8量化模式,其立即数表示的为PE输入上下移位相加的地址偏移,同样的因为地址跨度比较大也使用了两条指令来组合表示高低位。
接着便是循环指令,其操作码为0111,中间的字段用以区分表示循环的不同阶段,图中可见外循环只有两层,对应了图36循环调度中conv0只进行tiling划分的OW和OH,指令立即数表示的为循环重复的次数(循环次数减1),图36中外循环的循环重复次数分别为1010=10和11101=29,与OH和OW循环划分的(11,8)、(30,8)一致。指令循环下的0110和0101指令用以表示每次循环各个张量在内存中的地址偏移的高低位,如果没有超出16位表示范围则只用0110地位表示,实际地址偏移是由循环地址偏移从外到里进行叠加的。
4.3CNN模型应用验证
在生成指令和相关权重文件后,利用Python的cocotb平台直接使用RTL硬件代码进行推理仿真测试。通过将图片预处理并量化后送进仿真程序的图片输入接口,然后计算完成后通过输出接口可以得到相应的输出结果。如图38所示,凡是通过编译器分配内存的张量都可以根据其首地址和尺寸大小从内存中读取出相应大小的字节,然后用reshape函数复原成张量原本的形状。对于内存共享的张量也是先把整个共享区域取出再进行通道的数据划分。
对于yolov4tiny目标检测模型,其输出有两个特征图用于目标的分类和回归,大小分别为(11,15,75)和(22,30,75)。分类分支用于进行目标识别,回归分支则用来进行目标定位,最终目标检测的结果的如图39所示,图左边是由yolov4tiny模型算法计算结果所画的框,图右边是由编译器生成指令经由加速器计算的结果,图中两者框的位置基本一致,只是在置信度数值有一些微小的差别,这是由于模型量化精度损失所导致的,具体损失可见表4.2所统计不同类型量化的精度损失,通过两者的对比说明编译器所设计的量化方式以及生成的指令是可信且精确的。
4.4小结
首先对编译器的功能模块目录进行了介绍,然后在仿真平台上通过编译yolov4tiny模型对主要的量化模块、计算图优化模型、循环调度和生成的指令进行了测试,以此说明了编译器基本功能的完整性。最后通过目标检测任务软硬件的结果对比验证了编译器编译结果的精确性。
5总结
深度学习作为机器学习中一个重要的分支,其发展趋势迅猛,特别在计算机视觉和语音识别等领域里表现出了超高的识别精度。尽管深度学习模型在云端表现出来的功能十分强大,但是其计算密集的特点也造成了在资源受限的嵌入式设备上部署模型的困难。为了解决深度学习模型落地的问题,许多专用神经网络加速器被设计而出,而模型到硬件的映射离不开深度学习编译器等软件工具。然而目前国内对于专用CNN加速器的编译研究并不多,还需要解决网络结构复杂、量化方式受限和特征图合理划分等问题。因此提出了面向CNN专用加速器的深度学习编译器优化设计与实现,经过总结,本发明完成的主要工作如下:
①对基于CNN专用加速器进行了深度学习编译器的基本设计,在设计实现中通过算子融合等优化方法减少了加速器对内存的访问以及存储空间的浪费,同时还使用内存分配地址叠加的方式避免了各张量之间的数据覆盖。
②设计了一种内存共享和寻址的方法来处理跨层式的Concat网络结构,通过特征图的深度复制和算子交换顺序等策略编译可以支持yolov3 tiny、yolov4 tiny等网络模型。
③实现了固定硬件下灵活的模型量化方法,通过将非对称量化的偏移和卷积偏置融合量化使对称量化所对应的硬件结构也能支持非对称量化方式。同时在硬件支持下通过编译器配置向DSP中送入两个输入值进行移位相加来同时计算两个输出值,以此实现编译器对模型可变位宽的量化支持。通过实验表明,非对称量化能提升约6%的精度,同时在不增加DSP资源的情况下INT8量化能达到INT16量化接近2倍的加速比。
④分析了特征图和权重进行分块后卷积计算的时间开销,在加速器延迟隐藏的前提下,根据硬件信息设计了优化循环平铺和循环重排的调度策略来提高加速器的计算效率,最后通过优化前后实验的对比调度策略能提升10%-20%的性能。
深度学习编译器是顶层模型算法和底层复杂硬件结构之间沟通的桥梁,也是整个AI芯片软件生态中很重要的一个组成部分。目前国内对于专用神经网络加速器的编译研究工作并不多,通过AI编译器的研究,不仅可以扩展对深度学习相关知识的了解,还能够对软硬件协调设计的过程有所帮助。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (7)
1.一种面向CNN专用加速器的深度学习编译器优化方法,其特征在于,包括以下之一或者任意组合步骤:
S1,通过算子融合和/或bn融合的优化方法减少加速器对内存的访问以及存储空间的浪费,同时使用内存分配地址叠加的方式避免各张量之间的数据覆盖;
S2,采用内存共享和编址的方法,并通过特征图深度复制、算子执行顺序交换策略使编译器支持复杂的跳跃连接网络结构;
S3,采用优化卷积循环平铺和循环重排的调度策略来提升加速器的性能。
2.根据权利要求1所述的一种面向CNN专用加速器的深度学习编译器优化方法,其特征在于,所述S2包括:
S2-1,对于不涉及数据计算操作的算子,且满足输入特征图和输出特征图在数据内容上有重叠的部分,则这部分重叠的数据由涉及到的相关特征图共享;
S2-2,对于内存空间不连续,则将参与数据拼接或拆分的特征图划分在一个共享区域,如果没有参与就单独为一个共享区域,共享区域的内存空间大小根据通道数最大特征图的尺寸计算;然后由编译器根据连续内存或者非连续内存进行相关地址偏移计算;
S2-3,若一个特征图A与其它多个没有关联的特征图都做拼接,则增加一个深度复制的算子Copy,并将所述的一个特征图深度复制成多个相同的特征图即第一特征图A′、第二特征图A″......对于算子Copy,将A对应的卷积输出经过ALU模块后分别存入到第一特征图A′、第二特征图A″以及其它相同特征图当中,A在ALU模块计算完成后将结果写回两个地址;
S2-4,如果计算图中拼接类算子的输出又作为输入流向线性计算算子,则将线性计算算子向前移动与拼接类算子交换顺序。
3.根据权利要求2所述的一种面向CNN专用加速器的深度学习编译器优化方法,其特征在于,所述地址偏移包括:
对于连续内存中进行地址偏移包括:
编译器每个循环的地址偏移计算公式为:
stridei=∏stridelist[i+1:]*perBytes
其中i表示的是第几个维度的循环;
[i+1:]表示偏移的数值从i+1开始;
perBytes表示每个数据在内存中占多少字节;
stridei表示第i个维度循环所对应在内存中的地址偏移;
stridelist表示循环偏移列表;
对于非连续内存中进行地址偏移包括:
计算每个循环地址的偏移:
stridei=∏stridelist[i+1:]*perBytes
stridelist=(1,h,w,cc+c)
其中h表示特征图的高值;
w表示特征图的宽值;
c表示特征图的通道值;
cc+c表示特征图所属共享区域的总通道值。
4.根据权利要求1所述的一种面向CNN专用加速器的深度学习编译器优化方法,其特征在于,所述S3包括:
首先外循环顺序采用枚举的方式,不同的外循环之间通过多线程的形式进行循环平铺尺寸空间探索,循环平铺的尺寸同样用枚举的形式从而得到每个缓存对应的分块数据大小,然后根据FPGA硬件的信息去计算该种方式消耗的时钟周期,最终通过比较采用消耗时钟周期最小的循环调度方案。
5.根据权利要求4所述的一种面向CNN专用加速器的深度学习编译器优化方法,其特征在于,所述循环平铺的具体步骤如下:
S100,外循环:
S100-1,若h小于OH,则继续第一层外循环,且每循环一次h加1;
S100-2,若c小于OW,则继续第二层外循环,且每循环一次w=w+ow;
S100-3,若oc小于OC,则继续第三层外循环,且每循环一次oc=oc+To;
S100-4,若ic小于IC,则继续第四层外循环,且每循环一次ic=ic+Ti;
S200,加载数据进缓存;
S300,内循环:
S300-1,若_h小于min(h+oh,OH),则继续第一层内循环,且每循环一次_h加1;
S300-2,若_w小于min(w+ow,OW),则继续第二层内循环,且每循环一次_w加1;
S300-3,若occ小于min(oc+To,OC),则继续第三层内循环,且每循环一次occ加1;
S300-4,若icc小于min(ic+Ti,IC),则继续第四层内循环,且每循环一次icc加1;
S300-5,若kw小于KW,则继续第五层内循环,且每循环一次kw加1;
S300-6,若kh小于KH,则继续第六层内循环,且每循环一次kh加1;
S300-7,output=input*weight+output;
其中OW、OH分别表示输出特征图的宽、高;
IC表示输入通道数;
OC表示卷积核的数量;
KW、KH分别表示卷积核的宽、高;
h、c、w、oc、ic均为外循环的遍历符号;
ow、To、Ti均为循环平铺的步长,取值均大于1;
_h、_w、occ、icc、kw、kh均为内循环的遍历符号;
output表示输出;
input表示输入;
weight表示权重。
6.根据权利要求4所述的一种面向CNN专用加速器的深度学习编译器优化方法,其特征在于,所述计算该种方式消耗的时钟周期包括:
S10,根据内循环顺序、循环平铺的尺寸计算出运算单元处理一个分块的时间;然后用同样的方法遍历所有的分块得到运算单元总计算时间;
S20,根据外循环顺序、循环平铺的尺寸以及数据块更换情况,求出每一次外循环的内存方法时间;
S30,如果第二步的时间大于第一步的时间,则内存阻塞时间=外循环的内存方法时间-固定的脉动阵列计算的时间;如果第二步的时间小于第一步的时间,内存阻塞时间为0;总内存阻塞时间即遍历所有的外循环;
S40,加速器总的运行时间=运算单元总计算时间+总内存阻塞时间。
7.根据权利要求6所述的一种面向CNN专用加速器的深度学习编译器优化方法,其特征在于,所述计算出运算单元处理一个分块的时间的计算公式如下:
an(…(a2(a1(a0+b)+b)+b)…)
其中an中的n表示的内循环顺序对应的循环数为n;
b表示切换循环的额外开销;
循环平铺的尺寸就是内循环的具体数值即a0,a1,...,an;
所述每一次外循环的内存方法时间=数据的交换量/内存的带宽。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210639397.3A CN114995823B (zh) | 2022-06-07 | 2022-06-07 | 一种面向cnn专用加速器的深度学习编译器优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210639397.3A CN114995823B (zh) | 2022-06-07 | 2022-06-07 | 一种面向cnn专用加速器的深度学习编译器优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114995823A true CN114995823A (zh) | 2022-09-02 |
CN114995823B CN114995823B (zh) | 2024-08-20 |
Family
ID=83032998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210639397.3A Active CN114995823B (zh) | 2022-06-07 | 2022-06-07 | 一种面向cnn专用加速器的深度学习编译器优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114995823B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115269204A (zh) * | 2022-09-27 | 2022-11-01 | 之江实验室 | 一种用于神经网络编译的内存优化方法及装置 |
CN115509467A (zh) * | 2022-11-23 | 2022-12-23 | 上海亿铸智能科技有限公司 | 存内计算匹配权重的特征形变方法 |
CN115982530A (zh) * | 2023-03-13 | 2023-04-18 | 苏州浪潮智能科技有限公司 | 加速器运算控制方法、系统、存储介质、装置及设备 |
CN116501509A (zh) * | 2023-06-29 | 2023-07-28 | 南京邮电大学 | 一种面向微控制器的深度学习内存优化方法 |
CN116757284A (zh) * | 2022-09-26 | 2023-09-15 | 荣耀终端有限公司 | 模型推理方法、设备、存储介质和程序产品 |
CN116894457A (zh) * | 2023-09-11 | 2023-10-17 | 深存科技(无锡)有限公司 | 深度学习模型的网络权重存取方法 |
CN117009092A (zh) * | 2023-10-07 | 2023-11-07 | 之江实验室 | 基于多重多臂老虎机的编译时间资源动态分配方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110766147A (zh) * | 2018-07-25 | 2020-02-07 | 赛灵思公司 | 神经网络编译器架构及编译方法 |
CN112579063A (zh) * | 2021-03-01 | 2021-03-30 | 之江实验室 | 一种用于深度学习编译器中探索优化空间的加速方法 |
US20210312281A1 (en) * | 2020-04-02 | 2021-10-07 | Electronics And Telecommunications Research Institute | Apparatus for instruction generation for artificial intelligence processor and optimization method thereof |
WO2021248138A1 (en) * | 2020-06-05 | 2021-12-09 | Google Llc | Learned graph optimizations for compilers |
-
2022
- 2022-06-07 CN CN202210639397.3A patent/CN114995823B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110766147A (zh) * | 2018-07-25 | 2020-02-07 | 赛灵思公司 | 神经网络编译器架构及编译方法 |
US20210312281A1 (en) * | 2020-04-02 | 2021-10-07 | Electronics And Telecommunications Research Institute | Apparatus for instruction generation for artificial intelligence processor and optimization method thereof |
WO2021248138A1 (en) * | 2020-06-05 | 2021-12-09 | Google Llc | Learned graph optimizations for compilers |
CN112579063A (zh) * | 2021-03-01 | 2021-03-30 | 之江实验室 | 一种用于深度学习编译器中探索优化空间的加速方法 |
Non-Patent Citations (2)
Title |
---|
吴林阳;杜伟健;陈小兵;庄毅敏;: "一种运算和数据协同优化的深度学习编译框架", 高技术通讯, no. 02, 15 February 2020 (2020-02-15) * |
张磊: "面向CNN专用加速器的深度学习编译器优化设计与实现", 硕士学位论文, 10 July 2024 (2024-07-10) * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116757284A (zh) * | 2022-09-26 | 2023-09-15 | 荣耀终端有限公司 | 模型推理方法、设备、存储介质和程序产品 |
CN115269204A (zh) * | 2022-09-27 | 2022-11-01 | 之江实验室 | 一种用于神经网络编译的内存优化方法及装置 |
CN115509467A (zh) * | 2022-11-23 | 2022-12-23 | 上海亿铸智能科技有限公司 | 存内计算匹配权重的特征形变方法 |
CN115982530A (zh) * | 2023-03-13 | 2023-04-18 | 苏州浪潮智能科技有限公司 | 加速器运算控制方法、系统、存储介质、装置及设备 |
CN116501509A (zh) * | 2023-06-29 | 2023-07-28 | 南京邮电大学 | 一种面向微控制器的深度学习内存优化方法 |
CN116501509B (zh) * | 2023-06-29 | 2023-09-08 | 南京邮电大学 | 一种面向微控制器的深度学习内存优化方法 |
CN116894457A (zh) * | 2023-09-11 | 2023-10-17 | 深存科技(无锡)有限公司 | 深度学习模型的网络权重存取方法 |
CN116894457B (zh) * | 2023-09-11 | 2023-11-24 | 深存科技(无锡)有限公司 | 深度学习模型的网络权重存取方法 |
CN117009092A (zh) * | 2023-10-07 | 2023-11-07 | 之江实验室 | 基于多重多臂老虎机的编译时间资源动态分配方法及系统 |
CN117009092B (zh) * | 2023-10-07 | 2024-02-02 | 之江实验室 | 基于多重多臂老虎机的编译时间资源动态分配方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114995823B (zh) | 2024-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114995823B (zh) | 一种面向cnn专用加速器的深度学习编译器优化方法 | |
CN114995822B (zh) | 专用于cnn加速器的深度学习编译器优化方法 | |
Mittal | A survey of FPGA-based accelerators for convolutional neural networks | |
CN112465108B (zh) | 一种面向存算一体平台的神经网络编译方法 | |
Wang et al. | Supporting very large models using automatic dataflow graph partitioning | |
Guan et al. | FP-DNN: An automated framework for mapping deep neural networks onto FPGAs with RTL-HLS hybrid templates | |
WO2021000970A1 (zh) | 深度学习算法的编译方法、装置及相关产品 | |
de Fine Licht et al. | StencilFlow: Mapping large stencil programs to distributed spatial computing systems | |
Catthoor et al. | Ultra-low energy domain-specific instruction-set processors | |
WO2021000971A1 (zh) | 操作数据的生成方法、装置及相关产品 | |
Hadjis et al. | Tensorflow to cloud FPGAs: Tradeoffs for accelerating deep neural networks | |
CN113220630A (zh) | 一种硬件加速器的可重构阵列优化方法及自动调优方法 | |
Sun et al. | A high-performance accelerator for large-scale convolutional neural networks | |
CN116401502B (zh) | 一种基于NUMA系统特性优化Winograd卷积的方法及装置 | |
US12046028B1 (en) | Compiler system for deploying CNN models to FPGA-based high-performance accelerators | |
CN105242907A (zh) | Arm二进制代码的neon向量化转换方法 | |
CN109408867A (zh) | 一种基于mic协处理器的显式r-k时间推进加速方法 | |
Lou et al. | Octcnn: A high throughput fpga accelerator for cnns using octave convolution algorithm | |
Gan et al. | High performance reconfigurable computing for numerical simulation and deep learning | |
Indirli et al. | A tile-based fused-layer CNN accelerator for FPGAs | |
Minnella et al. | Design and Optimization of Residual Neural Network Accelerators for Low-Power FPGAs Using High-Level Synthesis | |
Lou et al. | Unleashing Network/Accelerator Co-Exploration Potential on FPGAs: A Deeper Joint Search | |
CN114385180A (zh) | 一种数据处理方法、装置、设备及计算机存储介质 | |
Chen et al. | Dataflow optimization with layer-wise design variables estimation method for enflame CNN accelerators | |
Shah et al. | Efficient Execution of Irregular Dataflow Graphs: Hardware/Software Co-optimization for Probabilistic AI and Sparse Linear Algebra |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |