CN113537465A - Lstm模型优化方法、加速器、装置及介质 - Google Patents
Lstm模型优化方法、加速器、装置及介质 Download PDFInfo
- Publication number
- CN113537465A CN113537465A CN202110770411.9A CN202110770411A CN113537465A CN 113537465 A CN113537465 A CN 113537465A CN 202110770411 A CN202110770411 A CN 202110770411A CN 113537465 A CN113537465 A CN 113537465A
- Authority
- CN
- China
- Prior art keywords
- sparsity
- input sequence
- operation mode
- weight
- lstm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000005457 optimization Methods 0.000 title claims abstract description 47
- 239000011159 matrix material Substances 0.000 claims abstract description 71
- 238000004364 calculation method Methods 0.000 claims description 32
- 239000013598 vector Substances 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 5
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013138 pruning Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000005284 excitation Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 238000013141 low-rank factorization Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种LSTM模型优化方法、加速器、装置及介质,该方法包括以下步骤:获取剪枝后的LSTM网络的权重矩阵;基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;获取输入序列的稀疏度;基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算;本发明旨在提高LSTM硬件加速器的能效比,且实现简单,易于部署。
Description
技术领域
本发明涉及计算机硬件加速领域,尤其涉及一种LSTM模型优化方法、加速器、装置及介质。
背景技术
基于长短时记忆模型(Long Short-Term Memory,LSTM)的循环神经网络(Recurrent Neural Network,RNN)是一种处理序列数据的神经网络模型,它有效解决了梯度消失和爆炸问题,并在智能认知领域被广泛地应用,比如语音识别、行为识别和自然语言处理等。但在实际工程应用实践中,却面临着诸多问题。传统的计算平台无法承载LSTM如此大的数据计算量。在嵌入式应用中,特别是自动驾驶等时延性要求极高的领域,LSTM模型本身由于其巨大的参数量,以及海量的训练数据和推断测试数据,导致在训练模型和模型推断中,不仅计算复杂度高,且计算平台的功耗也非常大。这在功耗性要求极高的嵌入式设备中,很难部署模型。
针对LSTM模型稀疏化后的硬件加速计算,业界引入Delta算法,通过利用序列数据数值相似性,对序列数据的稀疏性进行构建、挖掘,并对LSTM模型进行重构和算法加速,但这种方法受限于序列数据的时间依赖性,需要相邻时刻输入数据具有较高相似度,应用范围存在明显局限,且基于Delta的LSTM模型重构硬件加速实现复杂,不利于硬件部署。
发明内容
有鉴于此,本申请实施例提供一种LSTM模型优化方法、加速器、装置及介质,本申请旨在提高LSTM硬件加速器的能效比,且实现简单,易于部署。
本申请实施例提供了一种LSTM模型优化方法,所述方法包括:
获取剪枝后的LSTM网络的权重矩阵;
基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;
获取输入序列的稀疏度;
基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;
若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算。
在一实施例中,所述基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断,包括:
若所述权值稀疏度大于或者等于权值稀疏度阈值和/或所述输入序列的稀疏度大于或者等于输入序列稀疏度阈值,则判定为所述稀疏运算模式。
在一实施例中,所述对所述输入序列按照所述稀疏运算模式进行计算,包括:
对所述权重矩阵进行平衡调整;
将所述输入序列与调整后的权重矩阵进行乘法计算。
在一实施例中,所述对所述权重矩阵进行平衡调整,包括:
统计所述权重矩阵中有效权重的个数;
将所述有效权重的个数除以所述权重矩阵的行数,获得每行的有效权重平均数;
基于所述有效权重平均数,调整所述权重矩阵每行的有效权重个数。
在一实施例中,所述获取输入序列的稀疏度,包括:
对预设数量个运算周期内的输入序列的零值个数或者连续零值个数执行零值检测,获得输入序列的稀疏度。
在一实施例中,所述基于所述权值系数度以及所述输入序列的稀疏度,对运算模式进行判断,还包括:
若所述权值稀疏度小于权值稀疏度阈值和/或所述输入序列的稀疏度小于输入序列稀疏度阈值,则判定为密集运算模式;
其中,在所述判定为密集运算模式的步骤之后,还包括:
若所述运算模式判定为密集运算模式,则对所述输入序列按照所述密集运算模式进行计算。
在一实施例中,所述对所述输入序列按照所述密集运算模式进行计算,包括:
基于输入序列的向量维度数以及LSTM网络隐藏层的节点数,将所述输入序列进行多次分块,生成多个分块向量;
将所述多个分块向量,按照流水线控制方式进行并行计算。
为实现上述目的,还提供一种LSTM模型优化装置,所述装置包括:
获取数据模块,用于获取剪枝后的LSTM网络的权重矩阵;基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;获取输入序列的稀疏度;
运算模式判断模块,用于基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;
计算模块,用于若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算。
为实现上述目的,还提供一种LSTM硬件加速器,包括存储器,处理器及存储在所述存储器上并可在所述处理器上运行的LSTM模型优化方法程序,所述处理器执行所述LSTM模型优化方法程序时实现上述任一所述的LSTM模型优化方法的步骤。
为实现上述目的,还提供一种计算机存储介质,所述计算机存储介质上存储有LSTM模型优化方法程序,所述LSTM模型优化方法程序被处理器执行时实现上述任一所述的LSTM模型优化方法的步骤。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:获取剪枝后的LSTM网络的权重矩阵;基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;获取输入序列的稀疏度;通过准确获取权值稀疏度以及输入序列的稀疏度,为后续进行运算模式的判断提供数据支持。
基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;通过对权值稀疏度以及输入序列的稀疏度,对稀疏运算模式或者密集运算模式进行判断,进行相对应的运算模式的计算,提高LSTM硬件加速器的计算效率与速度。
若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算;对所述输入序列按照所述稀疏运算模式进行计算。通过对权值稀疏度与权值稀疏度阈值之间的比较以及输入序列的稀疏度与输入序列稀疏度阈值之间的比较,完成对运算模式的判断,当判定为稀疏运算模式,则利用稀疏运算模式对输入序列进行计算,提高LSTM硬件加速器在稀疏化场景下的适应性。本发明显著增强了LSTM硬件加速器的整体性能和适用范围,提高LSTM硬件加速器的能效比,且实现方式相对简单,便于硬件部署。
附图说明
图1为本申请LSTM模型优化方法的第一实施例;
图2为本申请LSTM模型优化方法第一实施例步骤S160的具体实施步骤;
图3为本申请LSTM模型优化方法涉及的PE阵列示意图;
图4为本申请LSTM模型优化方法第一实施例步骤S161的具体实施步骤;
图5为本申请LSTM硬件加速器的计算方法第一实施例步骤S130的具体实施步骤;
图6为本申请LSTM模型优化方法的第二实施例;
图7为本申请LSTM模型优化方法第二实施例步骤S280的具体实施步骤;
图8为本申请LSTM可重构硬件加速器系统的示意图;
图9为本申请LSTM模型优化装置的示意图;
图10为本申请LSTM硬件加速器的示意图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:获取剪枝后的LSTM网络的权重矩阵;基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;获取输入序列的稀疏度;基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算;本申请旨在提高LSTM硬件加速器的能效比,且实现简单,易于部署。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
参照图1,图1为本申请LSTM模型优化方法的第一实施例,所述方法包括:
步骤S110:获取剪枝后的LSTM网络的权重矩阵。
具体地,基于长短时记忆模型(Long Short-Term Memory,LSTM)的循环神经网络(Recurrent Neural Network,RNN)是一种处理序列数据的神经网络模型,它有效解决了梯度消失和爆炸问题,并在智能认知领域被广泛地应用,比如语音识别、行为识别和自然语言处理等。
具体地,剪枝操作是对LSTM网络进行压缩,以减少LSTM网络的存储和计算成本。其中对LSTM网络进行压缩的方法,主要包括但不限于参数修剪与共享(parameter pruningand sharing)、低秩因子分解(low-rank factorization)、转移/紧凑卷积滤波器(transferred/compact convolutional filters)以及知识蒸馏(knowledgedistillation)。
具体地,权重矩阵是使用数据集对LSTM网络训练并剪枝后获得的权重组成的矩阵。
步骤S120:基于所述权重矩阵,获取所述权重矩阵的权值稀疏度。
具体地,权重矩阵的权值稀疏度可以通过统计权重矩阵中零值的个数进行计算,可以线下进行统计。
步骤S130:获取输入序列的稀疏度。
具体地,输入序列可以是当前输入LSTM网络中的数据,其中,所述输入序列的稀疏度需要线上统计,对当前输入LSTM网络的数据进行统计;另外需要说明的是输入序列的稀疏度是对输入序列中的零值进行统计。
步骤S140:基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断。
具体地,运算模式包括稀疏运算模式与密集运算模式,两种运算模式的计算方式不一样,对不同类型的输入序列执行不同的计算方式,即保证LSTM网络的正确计算,又提高LSTM网络的计算效率,节省计算成本。
在一实施例中,所述基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断,包括:
若所述权值稀疏度大于或者等于权值稀疏度阈值和/或所述输入序列的稀疏度大于或者等于输入序列稀疏度阈值,则判定为所述稀疏运算模式。
其中,所述权值稀疏度阈值与所述输入序列稀疏度阈值可以根据需要进行动态调整,在此不作限定。
需要另外说明的是,若所述权值稀疏度大于或者等于权值稀疏度阈值和/或所述输入序列的稀疏度大于或者等于输入序列稀疏度阈值,则判定为稀疏运算模式,包括三种情况:第一、若权值稀疏度大于或者等于权值稀疏度阈值,则判定为稀疏运算模式;第二、若输入序列的稀疏度大于或者等于输入序列稀疏度阈值,则判定为稀疏运算模式;第三、若权值稀疏度大于或者等于权值稀疏度阈值且输入序列的稀疏度大于或者等于输入序列稀疏度阈值,则判定为稀疏运算模式;三种情况在本实施例中都适用,在此不作限定。
步骤S150:若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算。
具体地,将输入序列输入LSTM网络后,按照稀疏运算模式进行计算。
在上述实施例中,存在的有益效果为:获取剪枝后的LSTM网络的权重矩阵;基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;获取输入序列的稀疏度;通过准确获取权值稀疏度以及输入序列的稀疏度,为后续进行运算模式的判断提供数据支持。
基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;通过对权值稀疏度以及输入序列的稀疏度,对稀疏运算模式或者密集运算模式进行判断,进行相对应的运算模式的计算,提高LSTM模型计算效率与速度。
若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算;对所述输入序列按照所述稀疏运算模式进行计算。通过对权值稀疏度与权值稀疏度阈值之间的比较以及输入序列的稀疏度与输入序列稀疏度阈值之间的比较,完成对运算模式的判断,当判定为稀疏运算模式,则利用稀疏运算模式对输入序列进行计算,提高LSTM硬件加速器在稀疏化场景下的适应性。本发明显著增强了LSTM硬件加速器的整体性能和适用范围,提高LSTM硬件加速器的能效比,且实现方式相对简单,便于硬件部署。
参照图2,图2为本申请LSTM模型优化方法第一实施例步骤S150的具体实施步骤,所述对所述输入序列按照所述稀疏运算模式进行计算,包括:
步骤S151:对所述权重矩阵进行平衡调整。
具体地,通过在线重构PE(processing element,处理元件)运算单元,采用调整输入序列和权重参数的次序,重新排布运算矩阵的方式,对权重矩阵的非均衡运算单元进行优化。
步骤S152:将所述输入序列与调整后的权重矩阵进行乘法计算。
具体地,将输入序列与调整后的权重矩阵输入PE阵列中进行计算,PE阵列具体可以由4个PE子单元、矩阵向量运算后处理、非线性激活操作以及元素向量点乘操作组成,具体参照图3。
在上述实施例中,存在的有益效果为:将输入序列与调整后的权重矩阵输入PE阵列中进行计算,在线动态重构硬件加速器PE运算单元,以提高PE运算资源的利用率和LSTM硬件加速器的能效比。
参照图4,图4为本申请LSTM模型优化方法第一实施例步骤S151的具体实施步骤,所述对所述权重矩阵进行平衡调整,包括:
步骤S1511:统计所述权重矩阵中有效权重的个数。
具体地,有效权重可以为非零元素。
步骤S1512:将所述有效权重的个数除以所述权重矩阵的行数,获得每行的有效权重平均数。
步骤S1513:基于所述有效权重平均数,调整所述权重矩阵每行的有效权重个数。
具体地,由于软件层面剪枝等操作,造成权重矩阵的稀疏性,在PE单元运算过程中,通常会遇到PE单元的负载不均衡问题,导致每个PE单元分配的数据量不等,故分配数据量少的PE单元运算结束,处于闲置状态,等待分配数据量大的PE单元运算结束后,控制器才继续指示存储单元开始读取下一组的数据。PE计算单元负载不均衡问题则造成了时序资源的极大浪费。
若剪枝后的权重矩阵,被判定使用稀疏运算模式进行计算,在另一实施例中,也可以统计每行的非零元素个数,然后根据每行非零元素个数的多寡,将矩阵的行次序按由多到少重新排序(即非零元素个数多的行排在前),再将矩阵的每一行分配给特定的PE,使得各个PE所要处理的数据量尽可能相等。各个PE运算时间大致同步,节省了时序资源。
在上述实施例中,存在的有益效果为:通过对权重矩阵的平衡调整,提高LSTM模型优化效率,节省了时序资源。
参照图5,图5为本申请LSTM模型优化方法第一实施例步骤S130的具体实施步骤,所述获取输入序列的稀疏度,包括:
步骤S131:对预设数量个运算周期内的输入序列的零值个数或者连续零值个数执行零值检测,获得输入序列的稀疏度。
具体地,可以通过对输入序列中的零值进行统计,以获得输入序列的稀疏度,其中,在本实施例中,输入序列的零值越多,则输入序列的稀疏度越高。
具体地,可以针对一个运算周期内的输入序列的零值个数进行统计,也可以是针对一个运算周期内的输入序列连续零值个数进行统计,具体可以是将一个运算周期内的输入序列的零值个数与输入序列的数据个数的比值作为输入序列稀疏度;也可以是将一个运算周期内的输入序列连续零值个数作为输入序列稀疏度;在此并不作限定,其中预设数量个运算周期在此并不限定于一个运算周期,也可以是其他数量的运算周期。
在上述实施例中,存在的有益效果:正确获取输入序列的稀疏度,保证运算模式选择的正确性,从而保证LSTM模型计算效率。
参照图6,图6为本申请LSTM模型优化方法的第二实施例,所述方法,还包括:
步骤S210:获取剪枝后的LSTM网络的权重矩阵。
步骤S220:基于所述权重矩阵,获取所述权重矩阵的权值稀疏度。
步骤S230:获取输入序列的稀疏度。
步骤S240:若所述权值稀疏度大于或者等于权值稀疏度阈值和/或所述输入序列的稀疏度大于或者等于输入序列稀疏度阈值,则判定为稀疏运算模式。
步骤S250:对所述输入序列按照所述稀疏运算模式进行计算。
步骤S260:若所述权值稀疏度小于权值稀疏度阈值和/或所述输入序列的稀疏度小于输入序列稀疏度阈值,则判定为密集运算模式。
步骤S270:将所述输入序列按照所述密集运算模式进行计算。
具体地,密集运算模式与稀疏运算模式不同,其中,密集运算模式可以使用分块及流水计算结构。
第二实施例与第一实施例相比,包括步骤S260以及步骤S270,其他步骤在第一实施例中已经进行了阐述,在此不再赘述。
在上述实施例中,存在的有益效果为:通过权值稀疏度以及输入序列的稀疏度的判断,对运算模式进行判断,并按照对应的运算模式对输入序列执行计算操作,大大提高了LSTM硬件加速器的能效比,且实现方式相对简单,便于部署在对功耗敏感的端侧人工智能芯片中。
参照图7,图7为本申请LSTM模型优化方法第二实施例步骤S270的具体实施步骤,所述将输入序列按照所述密集运算模式进行计算,包括:
步骤S271:基于输入序列的向量维度数以及LSTM网络隐藏层的节点数,将所述输入序列进行多次分块,生成多个分块向量。
具体地,参考输入序列的向量维度数以及LSTM网络隐藏层的节点数,获得分块数,将输入序列按照分块数进行多次分块,生成多个分块向量。
步骤S272:将所述多个分块向量,按照流水线控制方式进行并行计算。
具体地,流水线结构(pipeline architecture)的控制方式可以是在系统处理数据时,每个时钟脉冲都接受下一条处理数据的指令。流水线机构提高了系统处理数据的速度。
在上述实施例中,存在的有益效果为:对需要执行密集运算模式的输入序列执行密集运算模式,大大提高了LSTM模型计算效率,提高LSTM硬件加速器的能效比。
本申请保护一种LSTM可重构硬件加速器系统,如图8所示,LSTM可重构硬件加速器系统主要由ARM处理器、片外DDR同步动态存储器、LSTM硬件加速器IP和AXI总线构成。ARM处理器将训练得到的权值和偏置以及激励数据写入片外DDR存储器,通过AXI4-Lite接口对加速器IP进行配置,并从片外DDR存储器中取出LSTM加速器计算结果进行相应后处理。片外DDR存储器用于权值、偏置、激励和计算结果数据的存储。加速器IP完成对输入激励数据的LSTM硬件加速并将计算结果通过AXI4总线写入片外DDR存储器,加速器IP与外部的输入输出接口采用标准的AXI4 BUS和AXI4-Lite接口。
本申请保护一种LSTM模型优化装置20,所述装置包括:
获取数据模块,用于获取剪枝后的LSTM网络的权重矩阵;基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;获取输入序列的稀疏度;
运算模式判断模块,用于基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;
计算模块,用于若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算。
图9所示装置包括获取数据模块21、运算模式判断模块22、计算模块23、应用模块24,该装置可以执行图1、图2、图4至图7所示实施例的方法,本实施例未详细描述的部分,可参考对图1、图2、图4至图7所示实施例的相关说明。该技术方案的执行过程和技术效果参见图1、图2、图4至图7所示实施例中的描述,在此不再赘述。
本申请还保护一种计算机存储介质,所述计算机存储介质上存储有LSTM模型优化方法程序,所述LSTM模型优化方法程序被处理器执行时实现上述任一所述的LSTM模型优化方法的步骤。
本申请还保护一种LSTM硬件加速器,参照图10,可以包括采用可重构PE运算单元的设计架构,支持根据输入序列的密集程度在线适配和重构PE运算资源,具体功能描述如下:
系统配置模块:针对应用场景,系统启动后将线下生成的配置信息通过AXI4-Lite写入片内SRAM或FF,配置完成后将当前LSTM加速器配置信息同步更新到全局控制单元。
主控制和运算控制单元:包括配置控制、输入序列零值检测和运算状态控制。配置控制就是在每次运算起始时向加速器各个模块发送配置信息。输入序列零值检测根据输入序列的零值统计情况并结合系统配置的权值稀疏度自动输出当前PE运算单元采用的计算模式。运算状态控制包括对密集矩阵和稀疏矩阵两种计算类型的独立控制,并调度存储单元和计算单元协调工作。
输入输出数据缓存:完成数据读入、数据分发和数据输出功能。进行片外DDR存储器与片上数据的交互传输。主要包括激励读取、参数读取和结果读取,在主控制和运算控制单元的作用下分发给PE阵列进行计算,并将当前的计算结果进行存储。
PE阵列:由4个PE子单元、矩阵向量运算后处理、非线性激活操作和元素向量点乘操作构成。根据运算控制单元输出的密集稀疏运算类型,在线重构PE运算单元。针对密集运算场景,采用常规的分块及流水计算结构;针对稀疏运算场景,采用调整权重矩阵行次序,重新排布权重矩阵的方式,对稀疏权重矩阵的非均衡运算单元进行优化,具体参照图3。
本申请还保护一种LSTM硬件加速器,包括存储器,处理器及存储在所述存储器上并可在所述处理器上运行的LSTM模型优化方法程序,所述处理器执行所述LSTM模型优化方法程序时实现上述任一所述的LSTM模型优化方法的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种LSTM模型优化方法,其特征在于,所述方法包括:
获取剪枝后的LSTM网络的权重矩阵;
基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;
获取输入序列的稀疏度;
基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;
若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算。
2.如权利要求1所述的LSTM模型优化方法,其特征在于,所述基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断,包括:
若所述权值稀疏度大于或者等于权值稀疏度阈值和/或所述输入序列的稀疏度大于或者等于输入序列稀疏度阈值,则判定为所述稀疏运算模式。
3.如权利要求1所述的LSTM模型优化方法,其特征在于,所述对所述输入序列按照所述稀疏运算模式进行计算,包括:
对所述权重矩阵进行平衡调整;
将所述输入序列与调整后的权重矩阵进行乘法计算。
4.如权利要求3所述的LSTM模型优化方法,其特征在于,所述对所述权重矩阵进行平衡调整,包括:
统计所述权重矩阵中有效权重的个数;
将所述有效权重的个数除以所述权重矩阵的行数,获得每行的有效权重平均数;
基于所述有效权重平均数,调整所述权重矩阵每行的有效权重个数。
5.如权利要求1所述的LSTM模型优化方法,其特征在于,所述获取输入序列的稀疏度,包括:
对预设数量个运算周期内的输入序列的零值个数或者连续零值个数执行零值检测,获得输入序列的稀疏度。
6.如权利要求1所述的LSTM模型优化方法,其特征在于,所述基于所述权值系数度以及所述输入序列的稀疏度,对运算模式进行判断,还包括:
若所述权值稀疏度小于权值稀疏度阈值和/或所述输入序列的稀疏度小于输入序列稀疏度阈值,则判定为密集运算模式;
其中,在所述判定为密集运算模式的步骤之后,还包括:
若所述运算模式判定为密集运算模式,则对所述输入序列按照所述密集运算模式进行计算。
7.如权利要求6所述的LSTM模型优化方法,其特征在于,所述对所述输入序列按照所述密集运算模式进行计算,包括:
基于输入序列的向量维度数以及LSTM网络隐藏层的节点数,将所述输入序列进行多次分块,生成多个分块向量;
将所述多个分块向量,按照流水线控制方式进行并行计算。
8.一种LSTM模型优化装置,其特征在于,所述装置包括:
获取数据模块,用于获取剪枝后的LSTM网络的权重矩阵;基于所述权重矩阵,获取所述权重矩阵的权值稀疏度;获取输入序列的稀疏度;
运算模式判断模块,用于基于所述权值稀疏度以及所述输入序列的稀疏度,对运算模式进行判断;
计算模块,用于若所述运算模式判定为稀疏运算模式,则对所述输入序列按照所述稀疏运算模式进行计算。
9.一种LSTM硬件加速器,其特征在于,包括存储器,处理器及存储在所述存储器上并可在所述处理器上运行的LSTM模型优化方法程序,所述处理器执行所述LSTM模型优化方法程序时实现权利要求1-8任一所述的LSTM模型优化方法的步骤。
10.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有LSTM模型优化方法程序,所述LSTM模型优化方法程序被处理器执行时实现权利要求1-8任一所述的LSTM模型优化方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110770411.9A CN113537465A (zh) | 2021-07-07 | 2021-07-07 | Lstm模型优化方法、加速器、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110770411.9A CN113537465A (zh) | 2021-07-07 | 2021-07-07 | Lstm模型优化方法、加速器、装置及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113537465A true CN113537465A (zh) | 2021-10-22 |
Family
ID=78098008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110770411.9A Pending CN113537465A (zh) | 2021-07-07 | 2021-07-07 | Lstm模型优化方法、加速器、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537465A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114239816A (zh) * | 2021-12-09 | 2022-03-25 | 电子科技大学 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
WO2023071658A1 (zh) * | 2021-10-28 | 2023-05-04 | 华为技术有限公司 | Ai模型的处理方法、运算方法及装置 |
CN116384454A (zh) * | 2023-02-08 | 2023-07-04 | 大连理工大学 | 一种基于fpga的长短期记忆网络硬件加速方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016216954A1 (de) * | 2016-09-07 | 2018-03-08 | Robert Bosch Gmbh | Modellberechnungseinheit und Steuergerät zur Berechnung einer partiellen Ableitung eines RBF-Modells |
CN107944555A (zh) * | 2017-12-07 | 2018-04-20 | 广州华多网络科技有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
US20180174036A1 (en) * | 2016-12-15 | 2018-06-21 | DeePhi Technology Co., Ltd. | Hardware Accelerator for Compressed LSTM |
CN108510063A (zh) * | 2018-04-08 | 2018-09-07 | 清华大学 | 一种应用于卷积神经网络的加速方法和加速器 |
CN111026700A (zh) * | 2019-11-21 | 2020-04-17 | 清华大学 | 实现加速的存内计算架构及其加速方法 |
-
2021
- 2021-07-07 CN CN202110770411.9A patent/CN113537465A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016216954A1 (de) * | 2016-09-07 | 2018-03-08 | Robert Bosch Gmbh | Modellberechnungseinheit und Steuergerät zur Berechnung einer partiellen Ableitung eines RBF-Modells |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
US20180174036A1 (en) * | 2016-12-15 | 2018-06-21 | DeePhi Technology Co., Ltd. | Hardware Accelerator for Compressed LSTM |
CN107944555A (zh) * | 2017-12-07 | 2018-04-20 | 广州华多网络科技有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
CN108510063A (zh) * | 2018-04-08 | 2018-09-07 | 清华大学 | 一种应用于卷积神经网络的加速方法和加速器 |
CN111026700A (zh) * | 2019-11-21 | 2020-04-17 | 清华大学 | 实现加速的存内计算架构及其加速方法 |
Non-Patent Citations (2)
Title |
---|
BAHAR ASGARI等: "ALRESCHA: A Lightweight Reconfigurable Sparse-Computation Accelerator", 2020 IEEE INTERNATIONAL SYMPOSIUM ON HIGH PERFORMANCE COMPUTER ARCHITECTURE (HPCA), 16 April 2020 (2020-04-16), pages 249 - 260 * |
邬贵明;王淼;谢向辉;窦勇;郭松;: "面向定制结构的稀疏矩阵分块方法", 计算机科学, no. 11, 30 November 2015 (2015-11-30), pages 69 - 70 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023071658A1 (zh) * | 2021-10-28 | 2023-05-04 | 华为技术有限公司 | Ai模型的处理方法、运算方法及装置 |
CN114239816A (zh) * | 2021-12-09 | 2022-03-25 | 电子科技大学 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
CN114239816B (zh) * | 2021-12-09 | 2023-04-07 | 电子科技大学 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
CN116384454A (zh) * | 2023-02-08 | 2023-07-04 | 大连理工大学 | 一种基于fpga的长短期记忆网络硬件加速方法 |
CN116384454B (zh) * | 2023-02-08 | 2023-09-29 | 大连理工大学 | 一种基于fpga的长短期记忆网络硬件加速方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113537465A (zh) | Lstm模型优化方法、加速器、装置及介质 | |
EP3685319B1 (en) | Direct access, hardware acceleration in neural network | |
US10691996B2 (en) | Hardware accelerator for compressed LSTM | |
US10482380B2 (en) | Conditional parallel processing in fully-connected neural networks | |
KR101959376B1 (ko) | 멀티 코어 최적화된 순환 신경망을 위한 시스템 및 방법 | |
WO2019018375A1 (en) | NEURONAL ARCHITECTURE RESEARCH FOR CONVOLUTION NEURAL NETWORKS | |
CN109409510B (zh) | 神经元电路、芯片、系统及其方法、存储介质 | |
JP7078758B2 (ja) | 機械学習モデルを改良して局所性を改善させること | |
CN109284824B (zh) | 一种基于可重构技术的用于加速卷积和池化运算的装置 | |
CN111427750B (zh) | 一种计算机平台的gpu功耗估计方法、系统及介质 | |
CN110309911A (zh) | 神经网络模型验证方法、装置、计算机设备和存储介质 | |
CN108304925B (zh) | 一种池化计算装置及方法 | |
CN109815267A (zh) | 数据建模中特征的分箱优化方法及系统、存储介质及终端 | |
CN109657794B (zh) | 一种基于指令队列的分布式深度神经网络性能建模方法 | |
CN108710943B (zh) | 一种多层前馈神经网络并行加速器 | |
CN109740619B (zh) | 用于目标识别的神经网络终端运行方法和装置 | |
KR20210073242A (ko) | 모델 최적화 방법 및 장치 및 모델 최적화 장치를 포함한 가속기 시스템 | |
Domingos et al. | An efficient and scalable architecture for neural networks with backpropagation learning | |
CN113886092A (zh) | 一种计算图执行方法、装置及相关设备 | |
CN113761026A (zh) | 基于条件互信息的特征选择方法、装置、设备和存储介质 | |
CN113496248A (zh) | 训练计算机实施的模型的方法和设备 | |
US11481604B2 (en) | Apparatus and method for neural network processing | |
CN110852414B (zh) | 高精度低位卷积神经网络 | |
US20210397962A1 (en) | Effective network compression using simulation-guided iterative pruning | |
CN115392441A (zh) | 量化神经网络模型的片内适配方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |