CN116502672A - 一种神经网络量化部署方法、系统、设备和介质 - Google Patents
一种神经网络量化部署方法、系统、设备和介质 Download PDFInfo
- Publication number
- CN116502672A CN116502672A CN202310508185.6A CN202310508185A CN116502672A CN 116502672 A CN116502672 A CN 116502672A CN 202310508185 A CN202310508185 A CN 202310508185A CN 116502672 A CN116502672 A CN 116502672A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- layer
- data set
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000003062 neural network model Methods 0.000 claims abstract description 194
- 238000013139 quantization Methods 0.000 claims abstract description 180
- 230000007547 defect Effects 0.000 claims abstract description 87
- 239000012212 insulator Substances 0.000 claims abstract description 85
- 230000005540 biological transmission Effects 0.000 claims abstract description 83
- 230000007787 long-term memory Effects 0.000 claims abstract description 38
- 230000006403 short-term memory Effects 0.000 claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims description 65
- 230000015654 memory Effects 0.000 claims description 43
- 238000011156 evaluation Methods 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 21
- 238000007667 floating Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 8
- 238000004088 simulation Methods 0.000 claims description 3
- 239000010410 layer Substances 0.000 abstract description 229
- 239000002356 single layer Substances 0.000 abstract description 4
- 238000011002 quantification Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000004913 activation Effects 0.000 description 6
- 238000001994 activation Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Neurology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种神经网络量化部署方法、系统、设备和介质,通过获取输电线路绝缘子缺陷数据集,采用输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型。将初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型。采用中间神经网络模型和输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列。采用量化参数序列和中间神经网络模型进行分类预测,确定目标神经网络模型。长短期记忆网络层被转换为用于单层量化的现有算子,并部署在嵌入式神经网络模型上,提高模型的运行效率和准确性,适用于各种类型的侵入式系统和神经网络模型。
Description
技术领域
本发明涉及神经网络技术领域,尤其涉及神经网络量化部署方法、系统、设备和介质。
背景技术
为了实现高速低功耗的运算,嵌入式神经网络加速器通常只支持低精度的数值运算。因此,需要采用量化算法来通过减少表示权重或激活所需的精度比特数来压缩原始网络。
目前嵌入式FPGA(Field Programmable Gate Array,现场可编程门阵列)平台上的神经网络加速器的主要加速目标是成熟的神经网络算子,如卷积、全连接、池化等。然而,随着深度学习技术解决的问题越来越复杂,一些新型的复杂算子逐渐出现,主要由RNN(Recurrent Neural Network,循环神经网络)的变体模型表示,如LSTM(Long Short-TermMemory,长短期记忆网络)和GRU(Gate Recurrent Unit,循环神经网络)等。它已被广泛应用于文本分类、视频识别、语音识别以及各种时间序列数据预测,如行人轨迹预测、股票预测和降雨预测。
神经网络的长短期记忆网络具有高密度的计算和复杂的控制流,硬件接口过于依赖神经网络模型和硬件平台的特点。现有的神经网络量化部署方法中使用的通用神经网络加速器无法直接支持长短期记忆网络的量化计算,需要量化工具来支持LSTM计算,占用较多存储空间,导致神经网络量化效率低。
发明内容
本发明提供了一种神经网络量化部署方法、系统、设备和介质,解决了现有的神经网络量化部署方法中使用的通用神经网络加速器无法直接支持长短期记忆网络的量化计算,需要量化工具来支持LSTM计算,占用较多存储空间,导致神经网络量化效率低的技术问题。
本发明提供的一种神经网络量化部署方法,包括:
获取输电线路绝缘子缺陷数据集,采用所述输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型;
将所述初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型;
采用所述中间神经网络模型和所述输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列;
采用所述量化参数序列和所述中间神经网络模型进行分类预测,确定目标神经网络模型。
可选地,所述获取输电线路绝缘子缺陷数据集,采用所述输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型的步骤,包括:
获取输电线路绝缘子缺陷数据集,按照所述输电线路绝缘子缺陷数据集,从预设视频分类数据集中选取测试数据集;
采用所述测试数据集进行量化设置,构建初始量化校准集;
采用所述初始量化校准集对预设神经网络模型进行更新,生成初始神经网络模型。
可选地,所述将所述初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型的步骤,包括:
将所述初始神经网络模型中的长短期记忆网络层进行分解,生成所述初始长短期记忆网络对应的长短期记忆网络层集;
所述长短期记忆网络层集包括依次连接的第一全连接层、第二全连接层、第一添加图层、第一非线性层、第一按元素乘积层、第二按元素乘积层、第二添加图层、第二非线性层和第三按元素乘积层;
采用所述长短期记忆网络层集合对所述初始神经网络模型进行更新,生成中间神经网络模型。
可选地,所述中间神经网络模型包括正常层和所述长短期记忆网络层集;所述采用所述中间神经网络模型和所述输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列的步骤,包括:
按照所述中间神经网络模型对应的时间步长,采用所述输电线路绝缘子缺陷数据集构建时间序列图像组和不同图像组;
采用所述不同图像组和所述时间序列图像组进行量化设置,构建目标量化校准集;
采用所述目标量化校准集对所述输电线路绝缘子缺陷数据集量化校准,生成多个数据组;
采用所述目标量化校准集输入所述正常层进行量化,生成正常层张量序列和量化步长;
判断所述量化步长是否小于所述时间步长;
若是,则将全部所述数据组输入所述长短期记忆网络层集进行张量计算,生成量化参数序列;
若否,则将所述正常层张量序列作为量化参数序列。
可选地,所述将全部所述数据组输入所述长短期记忆网络层集进行张量计算,生成量化参数序列的步骤,包括:
将全部所述数据组输入所述第一全连接层,生成初始量化校准数据集;
判断所述初始量化校准数据集对应的连续性标识符是否为预设状态;
若是,则通过所述第二全连接层、所述第一添加图层和所述第一非线性层采用所述初始量化校准数据集进行点加法和非线性计算,生成中间初始量化校准数据集;
若否,则通过所述第一添加图层和所述第一非线性层采用所述初始量化校准数据集进行点加法和非线性计算,生成中间量化校准数据集;
判断所述中间量化校准数据集对应的连续性标识符是否为所述预设状态;
若是,则通过所述第一按元素乘积层、所述第二按元素乘积层、所述第二添加图层、所述第二非线性层和所述第三按元素乘积层采用所述中间量化校准数据集进行点积法、点加法和非线性计算,生成目标量化校准数据集;
若否,则通过所述第二非线性层和所述第三按元素乘积层采用所述中间量化校准数据集进行非线性计算和点积法计算,生成目标量化校准数据集;
采用所述目标量化校准数据集对应的全部张量序列,构建量化参数序列。
可选地,所述采用所述量化参数序列和所述中间神经网络模型进行分类预测,确定目标神经网络模型的步骤,包括:
采用所述量化参数序列按照预设范围阈值进行范围预测,确定所述中间神经网络模型各层对应的浮点数据;
通过神经网络加速器将所述浮点数据映射为低精度数据;
将所述低精度数据进行归一化处理,生成有效实数空间;
根据所述中间神经网络模型和所述有效实数空间进行分类精度评估,确定目标神经网络。
可选地,所述根据所述中间神经网络模型和所述有效实数空间进行分类精度评估,确定目标神经网络的步骤,包括:
通过所述中间神经网络模型将所述输电线路绝缘子缺陷数据集进行相对熵计算,生成相对熵;
通过所述中间神经网络模型将所述输电线路绝缘子缺陷数据集进行最大值计算,生成最大值;
通过所述中间神经网络模型将所述输电线路绝缘子缺陷数据集进行最大平均值计算,生成最大平均值;
将所述相对熵、所述最大值和所述最大平均值分别与所述有效实数空间对应的数值进行分类精度评估,生成精度评估数据;
采用所述精度评估数据更新所述中间神经网络模型,生成目标神经网络模型。
本发明还提供了一种神经网络量化部署系统,包括:
初始神经网络模型生成模块,用于获取输电线路绝缘子缺陷数据集,采用所述输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型;
中间神经网络模型生成模块,用于将所述初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型;
量化参数序列生成模块,用于采用所述中间神经网络模型和所述输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列;
目标神经网络模型确定模块,用于采用所述量化参数序列和所述中间神经网络模型进行硬件仿真计算,确定目标神经网络模型。
本发明还提供了一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行实现如上述任一项神经网络量化部署方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被执行时实现如上述任一项神经网络量化部署方法。
从以上技术方案可以看出,本发明具有以下优点:
本发明通过获取输电线路绝缘子缺陷数据集,采用输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型。将初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型。采用中间神经网络模型和输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列。采用量化参数序列和中间神经网络模型进行分类预测,确定目标神经网络模型。解决了现有的神经网络量化部署方法中使用的通用神经网络加速器无法直接支持长短期记忆网络的量化计算,需要量化工具来支持LSTM计算,占用较多存储空间,导致神经网络量化效率低的技术问题。LSTM层被转换为用于单层量化的现有算子,并部署在嵌入式神经网络模型上,提高模型的运行效率和准确性,适用于各种类型的侵入式系统和神经网络模型。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例一提供的神经网络量化部署方法的步骤流程图;
图2为本发明实施例二提供的神经网络量化部署方法的步骤流程图;
图3为本发明实施例二提供的中间神经网络模型的量化校准流程图;
图4为本发明实施例三提供的神经网络量化部署系统的结构框图。
具体实施方式
本发明实施例提供了一种神经网络量化部署方法、系统、设备和介质,用于解决现有的神经网络量化部署方法中使用的通用神经网络加速器无法直接支持长短期记忆网络的量化计算,需要量化工具来支持LSTM计算,占用较多存储空间,导致神经网络量化效率低的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例一提供的神经网络量化部署方法的步骤流程图。
本发明实例一提供的一种神经网络量化部署方法,包括:
步骤101、获取输电线路绝缘子缺陷数据集,采用输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型。
输电线路绝缘子缺陷数据集包括输电线路绝缘子缺陷对应的图片数据和缺陷类型等。
预设神经网络模型是指包括规则层和长短期记忆网络层的嵌入式神经网络模型。
在本发明实施例中,获取输电线路绝缘子缺陷数据集,按照输电线路绝缘子缺陷数据集,从预设视频分类数据集中选取测试数据集。采用测试数据集进行量化设置,构建初始量化校准集。采用初始量化校准集对预设神经网络模型进行更新,生成初始神经网络模型。
步骤102、将初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型。
在本发明实施例中,将初始神经网络模型中的长短期记忆网络层进行分解,生成初始长短期记忆网络对应的长短期记忆网络层集。长短期记忆网络层集包括依次连接的第一全连接层、第二全连接层、第一添加图层、第一非线性层、第一按元素乘积层、第二按元素乘积层、第二添加图层、第二非线性层和第三按元素乘积层。采用长短期记忆网络层集合对初始神经网络模型进行更新,生成中间神经网络模型。
步骤103、采用中间神经网络模型和输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列。
在本发明实施例中,中间神经网络模型包括正常层和长短期记忆网络层集,按照中间神经网络模型对应的时间步长,采用输电线路绝缘子缺陷数据集构建时间序列图像组和不同图像组。采用不同图像组和时间序列图像组进行量化设置,构建目标量化校准集。采用目标量化校准集对输电线路绝缘子缺陷数据集量化校准,生成多个数据组。采用目标量化校准集输入正常层进行量化,生成第一张量序列和量化步长。判断量化步长是否小于时间步长,若是,则将全部数据组输入长短期记忆网络层集进行张量计算,生成量化参数序列。若否,则将正常层张量序列作为量化参数序列。
步骤104、采用量化参数序列和中间神经网络模型进行分类预测,确定目标神经网络模型。
在本发明实施例中,采用量化参数序列按照预设范围阈值进行范围预测,确定中间神经网络模型各层对应的浮点数据。通过神经网络加速器将浮点数据映射为低精度数据,并将低精度数据进行归一化处理,生成有效实数空间。基于中间神经网络模型和有效实数空间进行分类精度评估,确定目标神经网络。
在本发明实施例中,通过获取输电线路绝缘子缺陷数据集,采用输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型。将初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型。采用中间神经网络模型和输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列。采用量化参数序列和中间神经网络模型进行分类预测,确定目标神经网络模型。解决了现有的神经网络量化部署方法中使用的通用神经网络加速器无法直接支持长短期记忆网络的量化计算,需要量化工具来支持LSTM计算,占用较多存储空间,导致神经网络量化效率低的技术问题。LSTM层被转换为用于单层量化的现有算子,并部署在嵌入式神经网络模型上,提高模型的运行效率和准确性,适用于各种类型的侵入式系统和神经网络模型。
请参阅图2,图2为本发明实施例二提供的神经网络量化部署方法的步骤流程图。
本发明实例二提供的另一种神经网络量化部署方法,包括:
步骤201、获取输电线路绝缘子缺陷数据集,按照输电线路绝缘子缺陷数据集,从预设视频分类数据集中选取测试数据集。
在本发明实施例中,预设视频分类数据集是指视频动作识别分类UCF101数据集。首先获取输电线路绝缘子缺陷数据集,然后使用视频动作识别分类UCF101数据集对模型进行评估,基于输电线路绝缘子缺陷数据集的数据类型,选择前55类中的2083个视频样本作为PC和FPGA上的测试数据集。
步骤202、采用测试数据集进行量化设置,构建初始量化校准集。
在本发明实施例中,采用测试数据集进行量化设置,即按照量化校准集的数量为50*5张图片;量化位宽为重量:8位、激活:8位;测试数据集的数量为2083*5张图片;精度计算标准为前百分之一的标准,将测试数据集进行量化设置,生成初始量化校准集。
步骤203、采用初始量化校准集对预设神经网络模型进行更新,生成初始神经网络模型。
在本发明实施例中,采用由输电线路绝缘子缺陷数据集进行量化得到的初始量化校准集对预设神经网络模型进行更新,从而得到初始神经网络模型。将初始神经网络模型设置在PC端和FPGA,在PC端,该模型是基于Pytorch深度学习框架即基于Caffe框架向前推进。在FPGA方面,对硬件平台进行了常规分层量化部署,FPGA是嵌入式设备,对来自256个门控递归单元(GRU)神经元的单层RNN进行网络训练得到,只有当神经元的激活变化超过一定阈值时,才会更新神经元进行输出,对初始量化校准集上使用一个由256个神经元组成的GRU层的RNN模型进行了测试。通过为硬件平台设置一定数量的初始量化校准集,实现对输电线绝缘子缺陷数据的卷积计算加速。
步骤204、将初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型。
进一步地,步骤204可以包括以下子步骤S11-S12:
S11、将初始神经网络模型中的长短期记忆网络层进行分解,生成初始长短期记忆网络对应的长短期记忆网络层集。
长短期记忆网络层集包括依次连接的第一全连接层、第二全连接层、第一添加图层、第一非线性层、第一按元素乘积层、第二按元素乘积层、第二添加图层、第二非线性层和第三按元素乘积层。
S12、采用长短期记忆网络层集合对初始神经网络模型进行更新,生成中间神经网络模型。
在本发明实施例中,输电线路绝缘子缺陷检测的LSTM层是神经网络模型中的一个特定网络层,LSTM层的输入是x和Cont,输出是h。x的张量是(T,I),其中T是时间步长,I是输入特征维度。Cont是一个连续性标识符。h的张量是(T,O),其中O是输出特征维度。在具体的caffe实现过程即在具体的卷积神经网络框架实现过程中,LSTM的输入可以表示为Wh*h+Wx*x+b,可以使用两个完全连接层来计算输电线路绝缘子缺陷检测的深度神经网络,代替以下公式中的矩阵乘法运算.
it=sigmoid(Whi*ht-1+Wxi*xt+bi);
ft=sigmoid(Whf*ht-1+Wxf*xt+bf);
ot=sigmoid(Who*ht-1+Wxo*xt+bo);
gt=tanh(Whg*ht-1+Wxg*xt+bg);
ct=(ft*ct-1)+(i*gt);
ht=ot*tanh(ct);
第一个完全连接层为Wx*x+b,第二个完全连接层为Wh*h。
其中,Wx=[Wxi,Wxf,Wxo,Wxg];Wh=[Whi,Whf,Who,Whg];b=[bi,bf,bo,bg]。其中,Whi,Whf,Who,Whg是隐藏状态的权重矩阵;Wxi,Wxf,Wxo,Wxg是输入节点的权重矩阵;bi,bf,bo,bg是偏置项。
在上述公式中,xt表示当前节点的输入状态;ht-1表示前一个节点的隐藏状态;i是输入门;f是第一遗忘之门;g是第二遗忘之门;o是输出门;ct是在时间t要处理的信息;ct-1是最后时刻的机组输出状态;ht是传递给下一个节点的隐藏状态。
根据输电线路绝缘子缺陷检测的初始神经网络模型不同层的类型,把上述公式分为LSTM层操作过程即将初始神经网络模型中的长短期记忆网络层进行分解,生成初始长短期记忆网络对应的长短期记忆网络层集,按以下9层顺序计算:
第一层,FC层即第一全连接层:data_fc1=Wx*xt+b;
第二层,FC层即第二全连接层:data_fc2=Wh*ht;
第三层,Eltwise添加图层即第一添加图层:data_sum=data_fc1+data_fc2;
第四层,非线性层即第一非线性层:
data_it=sigmoid(data_sum[0:O]);
data_ft=sigmoid(data_sum[O:2*O]);
data_ot=sigmoid(data_sum[2*O:3*O]);
data_gt=tanh(data_sum[3*O:4*O]);
第五层,Eltwise Prod层即第一按元素乘积层:eltwise1=data_it×data_gt;
第六层,Eltwise Prod层即第二按元素乘积层:eltwise2=data_ft×data_ct;
第七层,Eltwise添加图层即第二添加图层:data_ct=eltwise1+eltwise2;
第八层,非线性层即第二非线性层:data_ct_tanh=tanh(data_ct);
第九层,Eltwise Prod层即第三按元素乘积层:
data_ht=data_ot×data_ct_tanh。
其中,xt表示当前节点的输入状态;ht-1表示前一个节点的隐藏状态;i是输入门;f是第一遗忘之门;g是第二遗忘之门;o是输出门;ct是在时间t要处理的信息;t是时间;ct-1是最后时刻的机组输出状态;ht是传递给下一个节点的隐藏状态;O是输出特征维度。
以层类型为单位量化LSTM层,在硬件平台即在PC和FPGA上进行LSTM量化部署的详细过程如下:LSTM层被划分为一组规则层即长短期记忆网络层集,其计算过程是全连接层(FC)、Eltwise层(Eltwise-Add,Eltwise-Prod)和非线性层(Sigmoid,Tanh)的组合即按照上述九层顺序进行计算。长短期记忆网络层集与模型的其他规则层合理地连接,可以实现量化参数的计算。通过采用长短期记忆网络层集合分别对设置在硬件平台上的初始神经网络模型进行更新,得到对应的中间神经网络模型。
步骤205、采用中间神经网络模型和输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列。
进一步地,中间神经网络模型包括正常层和长短期记忆网络层集,步骤205可以包括以下子步骤S21-S27:
S21、按照中间神经网络模型对应的时间步长,采用输电线路绝缘子缺陷数据集构建时间序列图像组和不同图像组。
S22、采用不同图像组和时间序列图像组进行量化设置,构建目标量化校准集。
S23、采用目标量化校准集对输电线路绝缘子缺陷数据集量化校准,生成多个数据组。
S24、采用目标量化校准集输入正常层进行量化,生成正常层张量序列和量化步长。
S25、判断量化步长是否小于时间步长,若是,则执行S26,若否,则执行S27。
S26、将全部数据组输入长短期记忆网络层集进行张量计算,生成量化参数序列。
S27、将正常层张量序列作为量化参数序列。
正常层包括规则层和未进行分解的长短期记忆网络层。目标量化校准集是指采用时间序列图像组和不同图像组的逐步组合策略对初始量化校准集进行量化得到的量化校准集。
在本发明实施例中,LSTM量化校准图像设计,集成LSTM层的神经网络模型既有规则层,也有LSTM层。仅针对输电线路绝缘子缺陷规则层构建的网络模型的量化校准集相对简单,并且选择了一定数量的不同类别、不同背景、不同角度和不同照明的不同图像组。LSTM处理的数据通常是时间序列,也就是说,随着时间的推移,分别在不同时间为所描述的输电线路绝缘子缺陷样本数据集收集数据。因此,设计了时间序列图像组和不同图像组的分步组合策略。
假设LSTM层的时间步长为T,则模型输入大小为C×W×H。因此,选择N个不同类别、不同背景、不同角度和不同照明的不同图像组。每组不同图像组包含一组具有训练一致性的时间序列数据集,即量化校准集的维数为N×T。一方面,组合图像用于典型层的量化校准。另一方面,当遇到LSTM层时,根据LSTM的时间步长,不同的图像组逐渐发送到每个时间步长N,其中每个不同的图像群具有时间序列特征。量化校准过程如图3所示。当对电网相关的输电线路绝缘子缺陷数据进行操作时,使用不同的组合模式对其进行量化校准,构建目标量化校准集。并且采用目标量化校准集对输电线路绝缘子缺陷数据集量化校准,分成多个的数据组,如组1、组2、...、组n,数据组的数量与时间步长相等。然后将量化校准后的目标量化校准集输入模型中进行正常层的量化,之后进行时间步长的判断,量化步长t小于时间步长T即没有达到最大值,进入模型里面即通过长短期记忆网络层集进行张量计算,通过各层进行相应的点运算和非运算,当运算计算后得到电网相关的张量序列即量化参数序列。若量化步长t大于或等于时间步长T,将正常层张量序列作为量化参数序列。
进一步地,步骤S26可以包括以下子步骤S261-S268:
S261、将全部数据组输入第一全连接层,生成初始量化校准数据集。
S262、判断初始量化校准数据集对应的连续性标识符是否为预设状态。
S263、若是,则通过第二全连接层、第一添加图层和第一非线性层采用初始量化校准数据集进行点加法和非线性计算,生成中间初始量化校准数据集。
S264、若否,则通过第一添加图层和第一非线性层采用初始量化校准数据集进行点加法和非线性计算,生成中间量化校准数据集。
S265、判断中间量化校准数据集对应的连续性标识符是否为预设状态。
S266、若是,则通过第一按元素乘积层、第二按元素乘积层、第二添加图层、第二非线性层和第三按元素乘积层采用中间量化校准数据集进行点积法、点加法和非线性计算,生成目标量化校准数据集。
S267、若否,则通过第二非线性层和第三按元素乘积层采用中间量化校准数据集进行非线性计算和点积法计算,生成目标量化校准数据集。
S268、采用目标量化校准数据集对应的全部张量序列,构建量化参数序列。
在本发明实施例中,在生成量化参数时,首先将所有组数据发送到规则层,根据该层的输出数据分布选择激活量化阈值,每层的数据维度为N×T×Cl×Hl×Wl,l为对应的层数;T为时间步长;Cl×Hl×Wl为每层对应的模型输入大小;N为不同图像数据集组的数量。当遇到LSTM层时,根据时间步长的大小,将输入的量化校准集等分为维度的张量,这些张量分别用作LSTM中计算单元的输入。根据输入数据集的权重和激活输出分布范围,逐层选择权重和激活量化阈值。如图3所示,将全部数据组输入第一全连接层即输入x和权重w的完全连接,生成初始量化校准数据集。判断初始量化校准数据集对应的连续性标识符Cont1是否为预设状态即“Cont1==1?”,若是,则通过第二全连接层即隐藏层h和权重w的完全连接、第一添加图层和第一非线性层采用初始量化校准数据集进行点加法和非线性计算,生成中间初始量化校准数据集。判断中间量化校准数据集对应的连续性标识符Cont2是否为预设状态即“Cont2==1?”,若是,则通过第一按元素乘积层、第二按元素乘积层、第二添加图层、第二非线性层和第三按元素乘积层采用中间量化校准数据集进行点积法、点加法和非线性计算,生成目标量化校准数据集。若否,则通过第二非线性层和第三按元素乘积层采用中间量化校准数据集进行非线性计算和点积法计算,生成目标量化校准数据集。若目标量化校准数据集对应的张量计算状态为未完成量化步长对应的张量计算,则跳转执行步骤S262即判断初始量化校准数据集对应的连续性标识符是否为预设状态。若目标量化校准数据集对应的张量计算状态为完成量化步长对应的张量计算后,采用目标量化校准数据集对应的全部张量序列,构建量化参数序列作为LSTM层的输出。此时,如果LSTM层之后仍然有一个规则层,则继续将输出数据集校准到后续层,以此来得到输电线路绝缘子缺陷的准确性和效益值随模型的变化。
步骤206、采用量化参数序列和中间神经网络模型进行分类预测,确定目标神经网络模型。
进一步地,步骤206可以包括以下子步骤S31-S34:
S31、采用量化参数序列按照预设范围阈值进行范围预测,确定中间神经网络模型各层对应的浮点数据。
S32、通过神经网络加速器将浮点数据映射为低精度数据。
S33、将低精度数据进行归一化处理,生成有效实数空间。
S34、根据中间神经网络模型和有效实数空间进行分类精度评估,确定目标神经网络。
预设范围阈值是指神经网络模型各层的输入、权重和输出数据对应的浮动范围的临界值,预设范围阈值是根据一组量化校准图像的激活定性来设置的。
在本发明实施例中,在Windows 10上进行PC端实验。CPU为Intel(R)Core(TM)i7-8700K,3.70GHz,GPU为NVIDIA GeForce GTX1070,深度学习框架为Pytorch 1.4.1和Caffe。FPGA端实验使用TIANJI NPU3.0神经网络加速器。该加速器基于Xilinx ZCU102 FPGA实现,具有可控IP和应用程序开发工具链。
通过神经网络加速器生成一个指南文件,得到量化软件,通过量化软件将浮点数据映射为低精度数据即预先分析了神经网络模型各层的输入、权重和输出数据的分布和范围即采用量化参数序列按照预设范围阈值进行范围预测,确定中间神经网络模型各层对应的浮点数据,每个浮点值即浮点数据由一个低位整数表示,当前层的输出用作下一层的输入。在得到最终的结果之前使用softmax进行处理即将低精度数据进行归一化处理,将线性模型输出的实数域映射到[0,1]表示概率分布的有效实数空间,然后通过仿真软件对运行时间和NPU计算过程进行仿真,验证硬件计算结果的正确性即基于中间神经网络模型和有效实数空间进行分类精度评估,确定目标神经网络。其中,量化软件使用层作为基本处理单元,量化操作被插入到每一层的权重和输出中。
进一步地,步骤S34可以包括以下子步骤S341-S345:
S341、通过中间神经网络模型将输电线路绝缘子缺陷数据集进行相对熵计算,生成相对熵。
S342、通过中间神经网络模型将输电线路绝缘子缺陷数据集进行最大值计算,生成最大值。
S343、通过中间神经网络模型将输电线路绝缘子缺陷数据集进行最大平均值计算,生成最大平均值。
S344、将相对熵、最大值和最大平均值分别与有效实数空间对应的数值进行分类精度评估,生成精度评估数据。
S345、采用精度评估数据更新中间神经网络模型,生成目标神经网络模型。
在本发明实施例中,LSTM层激活量化映射方法包括KL diversion(相对熵)、MAX(最大值)、AVG MAX(最大平均值)、COSine、ADMM等。这里,选择前三种方法进行模型分类精度测试。通过中间神经网络模型计算输电线路绝缘子缺陷数据集对应的相对熵、最大值和最大平均值。通过将相对熵、最大值和最大平均值分别与有效实数空间对应的数值进行差值计算后,与有效实数空间对应的数值进行比值计算,生成对应的精度评估数据。
对于视频分类任务,可以选择两个输电线路绝缘子缺陷样本神经网络测试模型,以Vgg16模型为骨干网络的测试模型52分类,它既包括正则算子(如卷积),也包括新兴的复杂算子(如LSTM)。按照上述步骤进行量化处理后,从图像和序列特征中依次提取时间序列图像,最终得到绝缘子缺陷高尔夫挥杆的分类预测结果。绝缘子缺陷高尔夫挥杆为Vgg16网络中的一种示例。
在本发明实施例中,通过获取输电线路绝缘子缺陷数据集,按照输电线路绝缘子缺陷数据集,从预设视频分类数据集中选取测试数据集。采用测试数据集进行量化设置,构建初始量化校准集。采用初始量化校准集对预设神经网络模型进行更新,生成初始神经网络模型。将初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型。采用中间神经网络模型和输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列。采用量化参数序列和中间神经网络模型进行分类预测,确定目标神经网络模型。通过将LSTM层拆分为多个由神经网络加速器支持的规则层,并且从量化校准集的逐步组合策略中考虑了LSTM层的时间序列性质,所提出的方法不仅满足了复杂时间序列预测任务的精度和速度要求,而且在嵌入式平台上快速高效地实现了神经网络加速器对LSTM层的支持。在不损失模型精度和执行效率的情况下,可以有效压缩模型规模,节省存储空间和计算资源。
请参阅图4,图4为本发明实施例三提供的神经网络量化部署系统的结构框图。
本发明实例三提供的一种神经网络量化部署系统,包括:
初始神经网络模型生成模块401,用于获取输电线路绝缘子缺陷数据集,采用输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型。
中间神经网络模型生成模块402,用于将初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型。
量化参数序列生成模块403,用于采用中间神经网络模型和输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列。
目标神经网络模型确定模块404,用于采用量化参数序列和中间神经网络模型进行硬件仿真计算,确定目标神经网络模型。
可选地,初始神经网络模型生成模块401包括:
测试数据集选取模块,用于获取输电线路绝缘子缺陷数据集,按照输电线路绝缘子缺陷数据集,从预设视频分类数据集中选取测试数据集。
量化校准集构建模块,用于采用测试数据集进行量化设置,构建初始量化校准集。
初始神经网络模型生成子模块,用于采用初始量化校准集对预设神经网络模型进行更新,生成初始神经网络模型。
可选地,中间神经网络模型生成模块402包括:
长短期记忆网络层集生成模块,用于将初始神经网络模型中的长短期记忆网络层进行分解,生成初始长短期记忆网络对应的长短期记忆网络层集。
长短期记忆网络层集包括依次连接的第一全连接层、第二全连接层、第一添加图层、第一非线性层、第一按元素乘积层、第二按元素乘积层、第二添加图层、第二非线性层和第三按元素乘积层。
中间神经网络模型生成子模块,用于采用长短期记忆网络层集合对初始神经网络模型进行更新,生成中间神经网络模型。
可选地,中间神经网络模型包括正常层和长短期记忆网络层集,量化参数序列生成模块403包括:
时间序列图像组和不同图像组构建模块,用于按照中间神经网络模型对应的时间步长,采用输电线路绝缘子缺陷数据集构建时间序列图像组和不同图像组。
目标量化校准集构建模块,用于采用不同图像组和时间序列图像组进行量化设置,构建目标量化校准集。
数据组生成模块,用于采用目标量化校准集对输电线路绝缘子缺陷数据集量化校准,生成多个数据组。
正常层张量序列和量化步长生成模块,用于采用目标量化校准集输入正常层进行量化,生成正常层张量序列和量化步长。
量化步长判读模块,用于判断量化步长是否小于时间步长。
量化参数序列生成第一子模块,用于若是,则将全部数据组输入长短期记忆网络层集进行张量计算,生成量化参数序列。
量化参数序列生成第二子模块,用于若否,则将正常层张量序列作为量化参数序列。
可选地,量化参数序列生成第一子模块可以执行以下步骤:
将全部数据组输入第一全连接层,生成初始量化校准数据集;
判断初始量化校准数据集对应的连续性标识符是否为预设状态;
若是,则通过第二全连接层、第一添加图层和第一非线性层采用初始量化校准数据集进行点加法和非线性计算,生成中间初始量化校准数据集;
若否,则通过第一添加图层和第一非线性层采用初始量化校准数据集进行点加法和非线性计算,生成中间量化校准数据集;
判断中间量化校准数据集对应的连续性标识符是否为预设状态;
若是,则通过第一按元素乘积层、第二按元素乘积层、第二添加图层、第二非线性层和第三按元素乘积层采用中间量化校准数据集进行点积法、点加法和非线性计算,生成目标量化校准数据集;
若否,则通过第二非线性层和第三按元素乘积层采用中间量化校准数据集进行非线性计算和点积法计算,生成目标量化校准数据集;
采用目标量化校准数据集对应的全部张量序列,构建量化参数序列。
可选地,目标神经网络模型确定模块404包括:
浮点数据确定模块,用于采用量化参数序列按照预设范围阈值进行范围预测,确定中间神经网络模型各层对应的浮点数据。
低精度数据生成模块,用于通过神经网络加速器将浮点数据映射为低精度数据。
有效实数空间生成模块,用于将低精度数据进行归一化处理,生成有效实数空间。
目标神经网络模型确定子模块,用于根据中间神经网络模型和有效实数空间进行分类精度评估,确定目标神经网络。
可选地,目标神经网络模型确定子模块可以执行以下步骤:
通过中间神经网络模型将输电线路绝缘子缺陷数据集进行相对熵计算,生成相对熵;
通过中间神经网络模型将输电线路绝缘子缺陷数据集进行最大值计算,生成最大值;
通过中间神经网络模型将输电线路绝缘子缺陷数据集进行最大平均值计算,生成最大平均值;
将相对熵、最大值和最大平均值分别与有效实数空间对应的数值进行分类精度评估,生成精度评估数据;
采用精度评估数据更新中间神经网络模型,生成目标神经网络模型。
本发明实施例还提供了一种电子设备,电子设备包括:存储器及处理器,存储器中储存有计算机程序;计算机程序被处理器执行时,使得处理器执行如上述任一实施例的神经网络量化部署方法。
存储器可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器具有用于执行上述方法中的任何方法步骤的程序代码的存储空间。例如,用于程序代码的存储空间可以包括分别用于实现上面的方法中的各种步骤的各个程序代码。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。程序代码可以例如以适当形式进行压缩。这些代码当由计算处理设备运行时,导致该计算处理设备执行上面所描述的神经网络量化部署方法中的各个步骤。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一实施例的神经网络量化部署方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种神经网络量化部署方法,其特征在于,包括:
获取输电线路绝缘子缺陷数据集,采用所述输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型;
将所述初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型;
采用所述中间神经网络模型和所述输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列;
采用所述量化参数序列和所述中间神经网络模型进行分类预测,确定目标神经网络模型。
2.根据权利要求1所述的神经网络量化部署方法,其特征在于,所述获取输电线路绝缘子缺陷数据集,采用所述输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型的步骤,包括:
获取输电线路绝缘子缺陷数据集,按照所述输电线路绝缘子缺陷数据集,从预设视频分类数据集中选取测试数据集;
采用所述测试数据集进行量化设置,构建初始量化校准集;
采用所述初始量化校准集对预设神经网络模型进行更新,生成初始神经网络模型。
3.根据权利要求1所述的神经网络量化部署方法,其特征在于,所述将所述初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型的步骤,包括:
将所述初始神经网络模型中的长短期记忆网络层进行分解,生成所述初始长短期记忆网络对应的长短期记忆网络层集;
所述长短期记忆网络层集包括依次连接的第一全连接层、第二全连接层、第一添加图层、第一非线性层、第一按元素乘积层、第二按元素乘积层、第二添加图层、第二非线性层和第三按元素乘积层;
采用所述长短期记忆网络层集合对所述初始神经网络模型进行更新,生成中间神经网络模型。
4.根据权利要求3所述的神经网络量化部署方法,其特征在于,所述中间神经网络模型包括正常层和所述长短期记忆网络层集;所述采用所述中间神经网络模型和所述输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列的步骤,包括:
按照所述中间神经网络模型对应的时间步长,采用所述输电线路绝缘子缺陷数据集构建时间序列图像组和不同图像组;
采用所述不同图像组和所述时间序列图像组进行量化设置,构建目标量化校准集;
采用所述目标量化校准集对所述输电线路绝缘子缺陷数据集量化校准,生成多个数据组;
采用所述目标量化校准集输入所述正常层进行量化,生成正常层张量序列和量化步长;
判断所述量化步长是否小于所述时间步长;
若是,则将全部所述数据组输入所述长短期记忆网络层集进行张量计算,生成量化参数序列;
若否,则将所述正常层张量序列作为量化参数序列。
5.根据权利要求4所述的神经网络量化部署方法,其特征在于,所述将全部所述数据组输入所述长短期记忆网络层集进行张量计算,生成量化参数序列的步骤,包括:
将全部所述数据组输入所述第一全连接层,生成初始量化校准数据集;
判断所述初始量化校准数据集对应的连续性标识符是否为预设状态;
若是,则通过所述第二全连接层、所述第一添加图层和所述第一非线性层采用所述初始量化校准数据集进行点加法和非线性计算,生成中间初始量化校准数据集;
若否,则通过所述第一添加图层和所述第一非线性层采用所述初始量化校准数据集进行点加法和非线性计算,生成中间量化校准数据集;
判断所述中间量化校准数据集对应的连续性标识符是否为所述预设状态;
若是,则通过所述第一按元素乘积层、所述第二按元素乘积层、所述第二添加图层、所述第二非线性层和所述第三按元素乘积层采用所述中间量化校准数据集进行点积法、点加法和非线性计算,生成目标量化校准数据集;
若否,则通过所述第二非线性层和所述第三按元素乘积层采用所述中间量化校准数据集进行非线性计算和点积法计算,生成目标量化校准数据集;
采用所述目标量化校准数据集对应的全部张量序列,构建量化参数序列。
6.根据权利要求1所述的神经网络量化部署方法,其特征在于,所述采用所述量化参数序列和所述中间神经网络模型进行分类预测,确定目标神经网络模型的步骤,包括:
采用所述量化参数序列按照预设范围阈值进行范围预测,确定所述中间神经网络模型各层对应的浮点数据;
通过神经网络加速器将所述浮点数据映射为低精度数据;
将所述低精度数据进行归一化处理,生成有效实数空间;
根据所述中间神经网络模型和所述有效实数空间进行分类精度评估,确定目标神经网络。
7.根据权利要求6所述的神经网络量化部署方法,其特征在于,所述根据所述中间神经网络模型和所述有效实数空间进行分类精度评估,确定目标神经网络的步骤,包括:
通过所述中间神经网络模型将所述输电线路绝缘子缺陷数据集进行相对熵计算,生成相对熵;
通过所述中间神经网络模型将所述输电线路绝缘子缺陷数据集进行最大值计算,生成最大值;
通过所述中间神经网络模型将所述输电线路绝缘子缺陷数据集进行最大平均值计算,生成最大平均值;
将所述相对熵、所述最大值和所述最大平均值分别与所述有效实数空间对应的数值进行分类精度评估,生成精度评估数据;
采用所述精度评估数据更新所述中间神经网络模型,生成目标神经网络模型。
8.一种神经网络量化部署系统,其特征在于,包括:
初始神经网络模型生成模块,用于获取输电线路绝缘子缺陷数据集,采用所述输电线路绝缘子缺陷数据集对预设神经网络模型进行数据集配置,生成初始神经网络模型;
中间神经网络模型生成模块,用于将所述初始神经网络模型中的长短期记忆网络层进行分解,生成中间神经网络模型;
量化参数序列生成模块,用于采用所述中间神经网络模型和所述输电线路绝缘子缺陷数据集进行量化校准,生成量化参数序列;
目标神经网络模型确定模块,用于采用所述量化参数序列和所述中间神经网络模型进行硬件仿真计算,确定目标神经网络模型。
9.一种电子设备,其特征在于,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7任一项所述的神经网络量化部署方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被执行时实现如权利要求1至7任一项所述的神经网络量化部署方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310508185.6A CN116502672A (zh) | 2023-05-06 | 2023-05-06 | 一种神经网络量化部署方法、系统、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310508185.6A CN116502672A (zh) | 2023-05-06 | 2023-05-06 | 一种神经网络量化部署方法、系统、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116502672A true CN116502672A (zh) | 2023-07-28 |
Family
ID=87319975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310508185.6A Pending CN116502672A (zh) | 2023-05-06 | 2023-05-06 | 一种神经网络量化部署方法、系统、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116502672A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116841911A (zh) * | 2023-08-24 | 2023-10-03 | 北京智芯微电子科技有限公司 | 基于异构平台的模型测试方法、异构芯片、设备及介质 |
-
2023
- 2023-05-06 CN CN202310508185.6A patent/CN116502672A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116841911A (zh) * | 2023-08-24 | 2023-10-03 | 北京智芯微电子科技有限公司 | 基于异构平台的模型测试方法、异构芯片、设备及介质 |
CN116841911B (zh) * | 2023-08-24 | 2024-01-16 | 北京智芯微电子科技有限公司 | 基于异构平台的模型测试方法、异构芯片、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111124840B (zh) | 业务运维中告警的预测方法、装置与电子设备 | |
JP7233807B2 (ja) | 人工ニューラル・ネットワークにおける不確実性をシミュレートするためのコンピュータ実施方法、コンピュータ・システム、およびコンピュータ・プログラム | |
CN113344295B (zh) | 基于工业大数据的设备剩余寿命预测方法、系统及介质 | |
CN111783442A (zh) | 入侵检测方法、设备和服务器、存储介质 | |
CN104217216A (zh) | 生成检测模型的方法和设备、用于检测目标的方法和设备 | |
CN107977748B (zh) | 一种多变量扭曲时间序列预测方法 | |
CN112560966B (zh) | 基于散射图卷积网络的极化sar图像分类方法、介质及设备 | |
CN110309537B (zh) | 一种飞行器的智能健康预测方法及系统 | |
CN112183742B (zh) | 基于渐进式量化和Hessian信息的神经网络混合量化方法 | |
CN113240194B (zh) | 储能电池容量预测方法、服务端及计算机可读存储介质 | |
CN114048468A (zh) | 入侵检测的方法、入侵检测模型训练的方法、装置及介质 | |
CN116502672A (zh) | 一种神经网络量化部署方法、系统、设备和介质 | |
CN113779882A (zh) | 设备剩余使用寿命的预测方法、装置、设备及存储介质 | |
CN113988357A (zh) | 基于深度学习的高层建筑风致响应预测方法及装置 | |
CN112086144A (zh) | 分子生成方法、装置、电子设备及存储介质 | |
CN116450486A (zh) | 多元异构计算系统内节点的建模方法、装置、设备及介质 | |
CN111144473B (zh) | 训练集构建方法、装置、电子设备及计算机可读存储介质 | |
CN115081609A (zh) | 一种智能决策中的加速方法、终端设备及存储介质 | |
CN111160419B (zh) | 一种基于深度学习的电子式互感器数据分类预测方法及装置 | |
KR102184655B1 (ko) | 비대칭 tanh 활성 함수를 이용한 예측 성능의 개선 | |
CN115174421B (zh) | 基于自监督解缠绕超图注意力的网络故障预测方法及装置 | |
CN117473275B (zh) | 一种数据中心的能耗检测方法 | |
CN116520252B (zh) | 一种空中目标智能识别方法与系统 | |
CN117708507B (zh) | 一种基于人工智能的高效α和β射线的识别与分类方法 | |
CN110728615B (zh) | 基于序贯假设检验的隐写分析方法、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |