CN111582432B - 一种网络参数处理方法及装置 - Google Patents

一种网络参数处理方法及装置 Download PDF

Info

Publication number
CN111582432B
CN111582432B CN201910121917.XA CN201910121917A CN111582432B CN 111582432 B CN111582432 B CN 111582432B CN 201910121917 A CN201910121917 A CN 201910121917A CN 111582432 B CN111582432 B CN 111582432B
Authority
CN
China
Prior art keywords
network
quantization
convolution kernels
parameters
data distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910121917.XA
Other languages
English (en)
Other versions
CN111582432A (zh
Inventor
徐兵
张楠赓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sisheng Technology Co ltd
Original Assignee
Canaan Bright Sight Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canaan Bright Sight Co Ltd filed Critical Canaan Bright Sight Co Ltd
Priority to CN201910121917.XA priority Critical patent/CN111582432B/zh
Publication of CN111582432A publication Critical patent/CN111582432A/zh
Application granted granted Critical
Publication of CN111582432B publication Critical patent/CN111582432B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本公开是关于一种网络参数处理方法及装置。所述方法包括:获取神经网络不同网络层的网络参数;分别对所述不同网络层的网络参数进行量化。利用本公开各个实施例提出的技术方案,通过对神经网络中不同网络层的网络参数分别量化,可以根据不同网络层对应的数据分布特征,确定与所述网络层相适配的量化位宽,这样,不仅可以使得各个网络层的位宽收敛到最小值,从整体上也压缩了存储和计算所述网络参数所需的位宽。

Description

一种网络参数处理方法及装置
技术领域
本公开涉及人工智能技术领域,尤其涉及一种网络参数处理方法及装置。
背景技术
目前,神经网络算法在图像处理、语音识别等多个技术领域中具有广泛的应用。随着各个技术领域所要解决问题的复杂化以及对神经网络性能要求的提高,神经网络的规模也越来越大。而神经网络的规模越大,对应的网络层数和网络参数也越多。这些网络参数的存储和传输也逐渐成为一个不能忽视的问题,尤其例如在边缘计算中,神经网络设置于终端中,因此,需要将网络参数存储于终端中。继而导致在相关技术中,网络参数的存储和读取所占用的总线带宽对终端处理器(如芯片或者其他硬件/软件形式)的计算成本和功耗影响较大。
神经网络的参数量化是减小神经网络规模的重要方式之一,参数量化可以利用更少的数据位宽表示网络参数,其优势在于节省存储空间,并可以更快地访存和计算。但是,相关技术中的参数量化往往可能导致计算精度的损失。
因此,相关技术中亟需一种能够在不损失计算精度的情况下对神经网络进行参数量化的方式。
发明内容
为克服相关技术中存在的问题,本公开提供一种网络参数处理方法及装置。
根据本公开实施例的第一方面,提供一种网络参数处理方法,所述方法包括:
获取神经网络不同网络层的网络参数;
分别对所述不同网络层的网络参数进行量化。
本公开的实施例提供的技术方案可以包括以下有益效果:本公开提供的网络参数处理方法,通过对神经网络中不同网络层的网络参数分别量化,可以根据不同网络层对应的数据分布特征,确定与所述网络层相适配的量化位宽,这样,不仅可以使得各个网络层的位宽收敛到最小值,从整体上也压缩了存储和计算所述网络参数所需的位宽。本公开通过的技术方案可以应用于图像处理、语音识别等技术领域,在一定程度上可以大大压缩神经网络的规模,减少存储空间,提升存取速度,对于神经网络模块嵌入和移动端具有十分重要的意义。
可选的,在本公开的一个实施例中,所述分别对所述不同网络层的网络参数进行量化包括:
遍历所述网络层,在确定所述网络层中具有多个卷积核的情况下,分别对所述多个卷积核进行量化。
本公开的实施例提供的技术方案可以包括以下有益效果:对网络层中的多个卷积核进行分别量化,可以压缩了存储和计算所述卷积核所需的位宽。
可选的,在本公开的一个实施例中,所述分别对所述不同网络层的网络参数进行量化包括:
在确定所述网络层中具有多个卷积核的情况下,分别确定所述多个卷积核的数据分布范围;
根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组;
分别对所述至少一个分组内的卷积核进行统一量化。
本公开的实施例提供的技术方案可以包括以下有益效果:在实际应用环境中,一些卷积核可能大小、分布范围比较相似,因此,可以对卷积核进行分组量化,使得同一分组内的卷积核进行统一量化,可以提升量化效率以及降低存储卷积核所占用的位宽。
可选的,在本公开的一个实施例中,所述根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组,包括:
确定所述多个卷积核的数据分布范围之间的相似度;
将相似度大于预设阈值的卷积核划分至同一分组。
本公开的实施例提供的技术方案可以包括以下有益效果:本实施例中,可以利用数据分布范围之间的相似度确定同一分组内的卷积核,提升量化效率。
可选的,在本公开的一个实施例中,所述分别对所述不同网络层的网络参数进行量化包括:
确定所述网络层中网络参数的数据分布范围;
根据所述数据分布范围确定系数指数值,以二为底数、以所述系数指数值为指数的数值被设置为量化系数;
基于所述量化系数对所述网络层中的网络参数进行量化。
本公开的实施例提供的技术方案可以包括以下有益效果:通过调节系数指数值,即使在定点网络参数较小的情况下,也可以表达较大数据范围的网络参数,
可选的,在本公开的一个实施例中,所述基于所述量化系数对所述网络层中的网络参数进行量化,包括:
所述网络参数的量化公式包括:
FP_Tensor=2nscale_factor(N_Tensor+FP_bias)
其中,FP_Tensor为量化前的浮点网络参数,N_Tensor为量化之后的N比特的定点网络参数,n为系数指数值,scale_factor为比例因子,FP_bias为偏置。
本公开的实施例提供的技术方案可以包括以下有益效果:量化之后的定点网络参数N_Tensor比相关技术中的定点网络参数小,这样,可以进一步降低网络参数对应的位宽。另一方面,通过调节n值,即使在N_Tensor较小的情况下,也可以表达较大数据范围的网络参数,因此,利用上述公式的线性量化方式,可以在不损失网络参数精度的情况下,降低定点网络参数的位宽。
可选的,在本公开的一个实施例中,所述确定所述网络层中网络参数的数据分布范围包括:
确定所述网络层的网络层类型;
基于所述网络层类型对所述网络层中网络参数的分布进行校准,确定所述网络层中网络参数的数据分布阈值。
本公开的实施例提供的技术方案可以包括以下有益效果:本公开实施例中,可以根据网络层类型的不同,对网络层中网络参数的分布分别进行校准,以获取更加准确的数据分布范围。
根据本公开实施例的第二方面,提供一种网络参数处理装置,所述装置包括:
参数获取模块,用于获取神经网络不同网络层的网络参数;
量化模块,用于分别对所述不同网络层的网络参数进行量化。
可选的,在本公开的一个实施例中,所述量化模块包括:
量化子模块,用于遍历所述网络层,在确定所述网络层中具有多个卷积核的情况下,分别对所述多个卷积核进行量化。
可选的,在本公开的一个实施例中,所述量化模块包括:
分布确定子模块,用于在确定所述网络层中具有多个卷积核的情况下,分别确定所述多个卷积核的数据分布范围;
分组划分子模块,用于根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组;
统一量化子模块,用于分别对所述至少一个分组内的卷积核进行统一量化。
可选的,在本公开的一个实施例中,所述分组划分子模块包括:
相似度确定单元,用于确定所述多个卷积核的数据分布范围之间的相似度;
卷积核划分单元,用于将相似度大于预设阈值的卷积核划分至同一分组。
可选的,在本公开的一个实施例中,所述量化模块包括:
分布确定子模块,用于确定所述网络层中网络参数的数据分布范围;
系数确定子模块,用于根据所述数据分布范围确定系数指数值,以二为底数、以所述系数指数值为指数的数值被设置为量化系数;
参数量化子模块,用于基于所述量化系数对所述网络层中的网络参数进行量化。
可选的,在本公开的一个实施例中,所述参数量化子模块包括:
量化公式单元,用于设置所述网络参数的量化公式包括:
FP_Tensor=2nscale_factor(N_Tensor+FP_bias)
其中,FP_Tensor为量化前的浮点网络参数,N_Tensor为量化之后的N比特的定点网络参数,n为系数指数值,scale_factor为比例因子,FP_bias为偏置。
可选的,在本公开的一个实施例中,所述分布确定子模块包括:
网络层类型确定单元,用于确定所述网络层的网络层类型;
分布校准单元,用于基于所述网络层类型对所述网络层中网络参数的分布进行校准,确定所述网络层中网络参数的数据分布阈值。
根据本公开实施例的第三方面,提供一种网络参数处理装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行本公开实施例提供的网络参数处理方法。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行本公开实施例提供的网络参数处理方法。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种网络参数处理方法的流程图。
图2是根据一示例性实施例示出的一种网络参数处理方法的流程图。
图3是根据一示例性实施例示出的一种网络参数处理方法的流程图。
图4是根据一示例性实施例示出的一种网络参数处理装置的框图。
图5是根据一示例性实施例示出的一种网络参数处理装置的框图。
图6是根据一示例性实施例示出的一种网络参数处理装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
为了方便本领域技术人员理解本申请实施例提供的技术方案,下面先对技术方案实现的技术环境进行说明。
目前,在一些通用的深度学习框架中,如TensorFlow、Caffe、MixNet中,往往利用32比特位的浮点数存储网络参数。存储和运行32比特位的浮点数据往往需要消耗较多的计算资源和存储资源,并且对于芯片这类载体,一般也不适宜直接采用浮点计算,因此,需要对网络参数进行量化,以提高网络参数的存取速度。一方面,参数量化可以减少神经网络模型文件的大小。较为复杂的模型文件往往占据较大的磁盘空间,很多模型文件都接近200MB,若将32比特位的浮点数量化成8比特位的定点数进行存储,则可以将模型文件压缩为原来的25%左右。另一方面,参数量化可以降低模型预测过程所需的计算资源。降低计算资源能够更快地运行神经网络模型,大幅度降低功耗,对于嵌入式和移动端具有重要的意义。在一个示例中,若将32比特位的浮点数量化成8比特位的定点数,从体系架构的角度来说,读取8位定点数时只需要32位浮点数的1/4的内存带宽,因此单次访问8位定点数的次数比32位的浮点数多,例如,在32位内存带宽的情况下,可以单次访问四个8位定点数,但只能访问一个32位浮点数,因此,可以在一个时钟周期里实现更多的计算。
相关技术中比较常用的量化方法包括线性量化,在线性量化过程中,可以获取神经网络模型中所有网路参数,并确定网络参数的范围[ωmin,ωmax]。若设置量化之后的定点数位宽为N,则可以确定N位定点数所表示的数值范围为[Qmin,Qmax],例如,8位定点数所表示的数值范围为[-128,+127]。然后,可以基于下述公式(1)进行量化计算:
FP_Tensor=scale_factor0*N_Tensor0+FP_bias0 (1)
其中,FP_Tensor为原始浮点网络参数,N_Tensor0为量化之后的N比特的定点网络参数,scale_factor0为网络参数的比例因子,FP_bias0为偏置。
在对所述网络参数进行量化之后,可以将量化后的网络参数设置于网络模型中进行迭代训练,逐步减小N的取值,直至获取合适的N值。
对于相关技术中的网络参数量化方式,至少存在以下技术问题:
(1)对神经网络中的所有网络参数按照相同的方式进行量化,一方面,由于网络参数的取值范围较大,使得N值难以收敛,导致量化之后的N值还是较大;另一方面,网络参数取值范围较大,对应的scale_factor0、FP_bias的位宽也较宽,导致在后续的计算过程中消耗较多的计算资源;
(2)需要对量化之后的网络参数进行迭代训练,以获取到最优的N值,往往需要消耗较多的时间,且实现难度较大。
基于类似于上文所述的技术需求,本公开提供的网络参数处理方法可以对网络模型中不同的网络层分别进行量化,以根据不同网络层的特点区别化地对网络参数进行量化,从而解决以上技术问题。
下面结合附图对本公开所述的网络参数处理方法进行详细的说明。图1是本公开提供的网络参数处理方法的一种实施例的方法流程图。虽然本公开提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑性上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本公开实施例提供的执行顺序。所述方法在实际中的网络参数处理过程中,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
具体的本公开提供的网络参数处理方法的一种实施例如图1所示,所述方法可以包括:
步骤101中,获取神经网络不同网络层的网络参数。
步骤103中,分别对所述不同网络层的网络参数进行量化。
本公开实施例中,所述神经网络可以包括感知机、卷积神经网络(CNN)、循环神经网络(RNN)、深度信念网络(DBN)等网络中的一种或者多种,当然,神经网络还可以包括基于CNN的R-CNN、Fast R-CNN、Faster R-CNN等多种网络以及基于RNN的LSTM等多种网络。基于此,所述神经网络中可以包括多个不同的网络层,所述网络层可以包括输入层、卷积层、池化层、激励层、全连接层、输出层等多种不同类型的层。由于不同类型的网络层所对应的数据分布范围不相同,因此,本公开实施例中,可以对不同网络层的网络参数分别进行量化。利用本实施例的技术方案,可以利用不同的量化位宽表示各个网络层中的网络参数,使得整个神经网络中网络参数的量化位宽得到压缩,降低网络参数的存取成本。
本公开的一个实施例中,在一些神经网络中,尤其如卷积神经网络中,往往在同一网络层中可以包括多个卷积核,而不同的卷积核对应的数据分布范围也不相同,因此,在本公开实施例中,在遍历所述网络层,并确定所述网络层中具有多个卷积核的情况下,可以分别对所述多个卷积核进行量化。在一个示例中,在神经网路的卷积层中,利用8个卷积核分别对上一网络层输出的数据进行卷积处理,但是这8个卷积核的大小、数据分布不相同,因此,可以分别对8个卷积核进行量化,且同一卷积核中的量化方式统一。
本公开的一个实施例中,对于包括多个卷积核的网络层,其中的一些卷积核可能大小、分布范围比较相似,因此,可以对卷积核进行分组量化。具体地,在一个实施例中,如图2所示,所述分别对所述不同网络层的网络参数进行量化可以包括:
步骤201中,在确定所述网络层中具有多个卷积核的情况下,分别确定所述多个卷积核的数据分布范围;
步骤203中,根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组;
步骤205中,分别对所述至少一个分组内的卷积核进行统一量化。
本公开实施例中,可以根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组,然后,分别对所述至少一个分组内的卷积核进行统一量化。在一个示例中,对于上述同一网络层中的8个卷积核中,其中三个卷积核的尺寸均为5*5,数值分布范围均在[0.5,1.5]的数值范围之内。因此,可以将这三个卷积核划分为一个分组内,并对该分组内的三个卷积核进行统一量化。在一个实施例中,在对所述多个卷积核划分成分组的过程中,可以确定所述多个卷积核的数据分布范围之间的相似度,并将相似度大于预设阈值的卷积核划分至同一分组。其中,由于卷积核在数学上表现为矩阵,因此,卷积核之间的相似度计算可以利用矩阵之间的距离计算得到,矩阵之间的距离越小,矩阵之间的相似度越大。当然,在其他实施例中,还可以利用其他计算矩阵之间相似度的方式计算卷积核之间的相似度,本公开在此不做限制。
在本公开的一个实施例中,可以利用指数式的方式对所述网络参数进行线性量化。如图3所示,在一个实施例中,所述分别对所述不同网络层的网络参数进行量化可以包括:
步骤301中,确定所述网络层中网络参数的数据分布范围;
步骤303中,根据所述数据分布范围确定系数指数值,以二为底数、以所述系数指数值为指数的数值被设置为量化系数;
步骤305中,基于所述量化系数对所述网络层中的网络参数进行量化。
本公开实施例中,在对网络层中的网络参数进行线性量化的过程中,可以设置量化系数为2n,其中n为系数指数值,n值可以根据网络层中网络参数的数据分布范围确定。在一个实施例中,对所述网络参数进行量化的量化公式可以包括下述公式(2),
FP_Tensor=2nscale_factor(N_Tensor+FP_bias) (2)
其中,FP_Tensor为量化前的浮点网络参数,N_Tensor为量化之后的N比特的定点网络参数,n为系数指数值,scale_factor为比例因子,FP_bias为偏置。
通过将公式(2)和公式(1)进行对比发现,量化之后的定点网络参数N_Tensor对应的量化系数由scale_factor0变化为2nscale_factor,基于此,量化之后的定点网络参数N_Tensor对应的位宽可以比公式(1)中的N_Tensor0小,这样,可以进一步降低网络参数对应的位宽。另一方面,通过调节n值,即使在N_Tensor较小的情况下,也可以表达较大数据范围的网络参数,因此,利用公式(2)的线性量化方式,可以在不损失网络参数精度的情况下,降低定点网络参数的位宽。另外,利用公式(2)的线性量化方式,还可以降低比例因子scale_factor和偏置FP_bias对应的位宽。在公式(1)中,若网络参数为32位的浮点数,则scale_factor0、FP_bias0均为32位的浮点数,位宽较大,消耗较多的计算资源。在本公开实施例中,由于在量化系数中引入2n,则可以动态调节scale_factor的位宽M,在本公开实施例中,若N的取值为[1,16],则FP_bias也为N,scale_factor的位宽可以设置为[5,16]。由此可见,通过上述量化公式(2),可以大大降低比例因子scale_factor和偏置FP_bias对应的位宽,从而降低计算过程中的计算资源。另外,在本公开的一个实施例中,在设置scale_factor数值的过程中,可以设置scale_factor的有效位为最高,以充分利用scale_factor高位的位宽,不浪费资源。基于此,在一个示例中,若scale_factor的位宽的位宽为M,则scale_factor的数值范围为[2m-2,2m-1-1]。
本公开实施例中,在确定所述网络层中网络参数的数据分布范围的过程中,可以基于所述网络层类型对所述网络层中网络参数的分布进行校准,确定所述网络层中网络参数的数据分布阈值。相关技术中,往往确定网络参数的数据分布范围为[ωmin,ωmax],若N位定点数所表示的数值范围为[Qmin,Qmax],在线性映射过程中,则将ωmin映射为Qmin,将ωmax映射为Qmax,ωmin与ωmax中间的数值按照线性关系进行映射。但是,不同的网络层类型具有不同的数据分布特征,例如,输入层、卷积层、池化层、激励层、全连接层、输出层分别具有各自的数据分布特征,并且,[ωmin,ωmax]中两端的网络参数中往往具有分布比较散乱的参数值,因此需要将这些分布散乱的采纳数值滤除,基于此,在本公开实施例中,可以对所述网络层的网络参数进行校准,确定数据分布阈值|T|,当然,|T|<ωmax。然后,可以将-|T|映射为Qmin,将|T|映射为Qmax。经过对所述网络层的网络参数进行校准,可以使得上述映射关系饱和,降低量化后的网络参数与量化前的网络参数对应的数据分布特征之间的差异性。
本公开提供的网络参数处理方法,通过对神经网络中不同网络层的网络参数分别量化,可以根据不同网络层对应的数据分布特征,确定与所述网络层相适配的量化位宽,这样,不仅可以使得各个网络层的位宽收敛到最小值,从整体上也压缩了存储和计算所述网络参数所需的位宽。本公开通过的技术方案可以应用于图像处理、语音识别等技术领域,在一定程度上可以大大压缩神经网络的规模,减少存储空间,提升存取速度,对于神经网络模块嵌入和移动端具有十分重要的意义。
本公开另一方面还提供一种网络参数处理装置,图4是根据一示例性实施例示出的网络参数处理装置400的框图。参照图4,该网络参数处理装置包括参数获取模块401,量化模块403,其中,
参数获取模块401,用于获取神经网络不同网络层的网络参数;
量化模块403,用于分别对所述不同网络层的网络参数进行量化。
可选的,在本公开的一个实施例中,所述量化模块包括:
量化子模块,用于遍历所述网络层,在确定所述网络层中具有多个卷积核的情况下,分别对所述多个卷积核进行量化。
可选的,在本公开的一个实施例中,所述量化模块包括:
分布确定子模块,用于在确定所述网络层中具有多个卷积核的情况下,分别确定所述多个卷积核的数据分布范围;
分组划分子模块,用于根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组;
统一量化子模块,用于分别对所述至少一个分组内的卷积核进行统一量化。
可选的,在本公开的一个实施例中,所述分组划分子模块包括:
相似度确定单元,用于确定所述多个卷积核的数据分布范围之间的相似度;
卷积核划分单元,用于将相似度大于预设阈值的卷积核划分至同一分组。
可选的,在本公开的一个实施例中,所述量化模块包括:
分布确定子模块,用于确定所述网络层中网络参数的数据分布范围;
系数确定子模块,用于根据所述数据分布范围确定系数指数值,以二为底数、以所述系数指数值为指数的数值被设置为量化系数;
参数量化子模块,用于基于所述量化系数对所述网络层中的网络参数进行量化。
可选的,在本公开的一个实施例中,所述参数量化子模块包括:
量化公式单元,用于设置所述网络参数的量化公式包括:
FP_Tensor=2nscale_factor(N_Tensor+FP_bias)
其中,FP_Tensor为量化前的浮点网络参数,N_Tensor为量化之后的N比特的定点网络参数,n为系数指数值,scale_factor为比例因子,FP_bias为偏置。
可选的,在本公开的一个实施例中,所述分布确定子模块包括:
网络层类型确定单元,用于确定所述网络层的网络层类型;
分布校准单元,用于基于所述网络层类型对所述网络层中网络参数的分布进行校准,确定所述网络层中网络参数的数据分布阈值。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图5是根据一示例性实施例示出的一种用于资源分配指示的装置500的框图。例如,装置500可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,装置500可以包括以下一个或多个组件:处理组件502,存储器504,电源组件506,多媒体组件508,音频组件510,输入/输出(I/O)的接口512,传感器组件514,以及通信组件516。
处理组件502通常控制装置500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件502可以包括一个或多个处理器520来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件502可以包括一个或多个模块,便于处理组件502和其他组件之间的交互。例如,处理组件502可以包括多媒体模块,以方便多媒体组件508和处理组件502之间的交互。
存储器504被配置为存储各种类型的数据以支持在装置500的操作。这些数据的示例包括用于在装置500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件506为装置500的各种组件提供电力。电源组件506可以包括电源管理系统,一个或多个电源,及其他与为装置500生成、管理和分配电力相关联的组件。
多媒体组件508包括在所述装置500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触敏显示器,以传输来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件508包括一个前置摄像头和/或后置摄像头。当装置500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以传输外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件510被配置为输出和/或输入音频信号。例如,音频组件510包括一个麦克风(MIC),当装置500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为传输外部音频信号。所传输的音频信号可以被进一步存储在存储器504或经由通信组件516发送。在一些实施例中,音频组件510还包括一个扬声器,用于输出音频信号。
I/O接口512为处理组件502和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件514包括一个或多个传感器,用于为装置500提供各个方面的状态评估。例如,传感器组件514可以检测到装置500的打开/关闭状态,组件的相对定位,例如所述组件为装置500的显示器和小键盘,传感器组件514还可以检测装置500或装置500一个组件的位置改变,用户与装置500接触的存在或不存在,装置500方位或加速/减速和装置500的温度变化。传感器组件514可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件514还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件514还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件516被配置为便于装置500和其他设备之间有线或无线方式的通信。装置500可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件516经由广播信道传输来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件516还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器504,上述指令可由装置500的处理器520执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图6是根据一示例性实施例示出的一种用于信息处理的装置600的框图。例如,装置600可以被提供为一服务器。参照图6,装置600包括处理组件622,其进一步包括一个或多个处理器,以及由存储器632所代表的存储器资源,用于存储可由处理组件622的执行的指令,例如应用程序。存储器632中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件622被配置为执行指令,以执行上述任一实施例所述的方法。
装置600还可以包括一个电源组件626被配置为执行装置600的电源管理,一个有线或无线网络接口850被配置为将装置600连接到网络,和一个输入输出(I/O)接口658。装置600可以操作基于存储在存储器632的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器632,上述指令可由装置600的处理组件622执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (12)

1.一种网络参数处理方法,其特征在于,所述方法应用于终端处理器,所述方法包括:
获取神经网络不同网络层的网络参数,所述网络参数为所述终端处理器所利用的用于执行计算任务的神经网络的参数,其中,所述计算任务包括为图像处理或语音识别;
分别对所述不同网络层的网络参数进行量化,所述终端处理器基于所述网络参数量化后的神经网络执行所述计算任务;
其中,所述分别对所述不同网络层的网络参数进行量化包括:
在确定所述网络层中具有多个卷积核的情况下,分别确定所述多个卷积核的数据分布范围;
根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组,其中,所述多个卷积核均来自于同一网络层;
分别对所述至少一个分组内的卷积核进行统一量化。
2.根据权利要求1所述的网络参数处理方法,其特征在于,所述根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组,包括:
确定所述多个卷积核的数据分布范围之间的相似度;
将相似度大于预设阈值的卷积核划分至同一分组。
3.根据权利要求1所述的网络参数处理方法,其特征在于,所述分别对所述不同网络层的网络参数进行量化包括:
确定所述网络层中网络参数的数据分布范围;
根据所述数据分布范围确定系数指数值,以二为底数、以所述系数指数值为指数的数值被设置为量化系数;
基于所述量化系数对所述网络层中的网络参数进行量化。
4.根据权利要求3所述的网络参数处理方法,其特征在于,所述基于所述量化系数对所述网络层中的网络参数进行量化,包括:
所述网络参数的量化公式包括:
FP_Tensor=2nscale_factor(N_Tensor+FP_bias)
其中,FP_Tensor为量化前的浮点网络参数,N_Tensor为量化之后的N比特的定点网络参数,n为系数指数值,scale_factor为比例因子,FP_bias为偏置。
5.根据权利要求3所述的网络参数处理方法,其特征在于,所述确定所述网络层中网络参数的数据分布范围包括:
确定所述网络层的网络层类型;
基于所述网络层类型对所述网络层中网络参数的分布进行校准,确定所述网络层中网络参数的数据分布阈值。
6.一种网络参数处理装置,其特征在于,所述装置应用于终端处理器,所述装置包括:
参数获取模块,用于获取神经网络不同网络层的网络参数,所述网络参数为所述终端处理器所利用的用于执行计算任务的神经网络的参数,其中,所述计算任务包括为图像处理或语音识别;
量化模块,用于分别对所述不同网络层的网络参数进行量化,所述终端处理器基于所述网络参数量化后的神经网络执行所述计算任务;
其中,所述量化模块包括:
分布确定子模块,用于在确定所述网络层中具有多个卷积核的情况下,分别确定所述多个卷积核的数据分布范围;
分组划分子模块,用于根据所述多个卷积核的数据分布范围,将所述多个卷积核划分成至少一个分组,其中,所述多个卷积核均来自于同一网络层;
统一量化子模块,用于分别对所述至少一个分组内的卷积核进行统一量化。
7.根据权利要求6所述的网络参数处理装置,其特征在于,所述分组划分子模块包括:
相似度确定单元,用于确定所述多个卷积核的数据分布范围之间的相似度;
卷积核划分单元,用于将相似度大于预设阈值的卷积核划分至同一分组。
8.根据权利要求6所述的网络参数处理装置,其特征在于,所述量化模块包括:
分布确定子模块,用于确定所述网络层中网络参数的数据分布范围;
系数确定子模块,用于根据所述数据分布范围确定系数指数值,以二为底数、以所述系数指数值为指数的数值被设置为量化系数;
参数量化子模块,用于基于所述量化系数对所述网络层中的网络参数进行量化。
9.根据权利要求8所述的网络参数处理装置,其特征在于,所述参数量化子模块包括:
量化公式单元,用于设置所述网络参数的量化公式包括:
FP_Tensor=2nscale_factor(N_Tensor+FP_bias)
其中,FP_Tensor为量化前的浮点网络参数,N_Tensor为量化之后的N比特的定点网络参数,n为系数指数值,scale_factor为比例因子,FP_bias为偏置。
10.根据权利要求8所述的网络参数处理装置,其特征在于,所述分布确定子模块包括:
网络层类型确定单元,用于确定所述网络层的网络层类型;
分布校准单元,用于基于所述网络层类型对所述网络层中网络参数的分布进行校准,确定所述网络层中网络参数的数据分布阈值。
11.一种网络参数处理装置,其特征在于,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-5任意一项所述的方法。
12.一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行权利要求1-5任意一项所述的方法。
CN201910121917.XA 2019-02-19 2019-02-19 一种网络参数处理方法及装置 Active CN111582432B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910121917.XA CN111582432B (zh) 2019-02-19 2019-02-19 一种网络参数处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910121917.XA CN111582432B (zh) 2019-02-19 2019-02-19 一种网络参数处理方法及装置

Publications (2)

Publication Number Publication Date
CN111582432A CN111582432A (zh) 2020-08-25
CN111582432B true CN111582432B (zh) 2023-09-12

Family

ID=72120622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910121917.XA Active CN111582432B (zh) 2019-02-19 2019-02-19 一种网络参数处理方法及装置

Country Status (1)

Country Link
CN (1) CN111582432B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541549B (zh) * 2020-12-15 2024-04-26 深兰人工智能(深圳)有限公司 商品分类识别方法及装置
CN115037608A (zh) * 2021-03-04 2022-09-09 维沃移动通信有限公司 量化的方法、装置、设备及可读存储介质
CN117540778A (zh) * 2022-07-29 2024-02-09 抖音视界有限公司 用于量化神经网络模型的方法、装置、计算设备和介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1741394A (zh) * 2005-09-16 2006-03-01 北京中星微电子有限公司 一种计算反量化公式中的非线性函数的方法
US8548816B1 (en) * 2008-12-01 2013-10-01 Marvell International Ltd. Efficient scalefactor estimation in advanced audio coding and MP3 encoder
US8863045B1 (en) * 2013-06-08 2014-10-14 Shanghai Huali Microelectronics Corporation Optical proximity correction method based on hybrid simulation model
CN105184362A (zh) * 2015-08-21 2015-12-23 中国科学院自动化研究所 基于参数量化的深度卷积神经网络的加速与压缩方法
CN106709875A (zh) * 2016-12-30 2017-05-24 北京工业大学 一种基于联合深度网络的压缩低分辨率图像复原方法
CN107480770A (zh) * 2017-07-27 2017-12-15 中国科学院自动化研究所 可调节量化位宽的神经网络量化与压缩的方法及装置
CN107644254A (zh) * 2017-09-09 2018-01-30 复旦大学 一种卷积神经网络权重参数量化训练方法及系统
CN107689223A (zh) * 2017-08-30 2018-02-13 北京嘉楠捷思信息技术有限公司 一种音频识别方法及装置
CN108416427A (zh) * 2018-02-22 2018-08-17 重庆信络威科技有限公司 卷积核堆积数据流、压缩编码以及深度学习算法
CN108492249A (zh) * 2018-02-08 2018-09-04 浙江大学 基于小卷积递归神经网络的单帧超分辨重建方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106097353B (zh) * 2016-06-15 2018-06-22 北京市商汤科技开发有限公司 基于多层次局部区域融合的物体分割方法及装置、计算设备
CN107679620B (zh) * 2017-04-19 2020-05-26 赛灵思公司 人工神经网络处理装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1741394A (zh) * 2005-09-16 2006-03-01 北京中星微电子有限公司 一种计算反量化公式中的非线性函数的方法
US8548816B1 (en) * 2008-12-01 2013-10-01 Marvell International Ltd. Efficient scalefactor estimation in advanced audio coding and MP3 encoder
US8863045B1 (en) * 2013-06-08 2014-10-14 Shanghai Huali Microelectronics Corporation Optical proximity correction method based on hybrid simulation model
CN105184362A (zh) * 2015-08-21 2015-12-23 中国科学院自动化研究所 基于参数量化的深度卷积神经网络的加速与压缩方法
CN106709875A (zh) * 2016-12-30 2017-05-24 北京工业大学 一种基于联合深度网络的压缩低分辨率图像复原方法
CN107480770A (zh) * 2017-07-27 2017-12-15 中国科学院自动化研究所 可调节量化位宽的神经网络量化与压缩的方法及装置
CN107689223A (zh) * 2017-08-30 2018-02-13 北京嘉楠捷思信息技术有限公司 一种音频识别方法及装置
CN107644254A (zh) * 2017-09-09 2018-01-30 复旦大学 一种卷积神经网络权重参数量化训练方法及系统
CN108492249A (zh) * 2018-02-08 2018-09-04 浙江大学 基于小卷积递归神经网络的单帧超分辨重建方法
CN108416427A (zh) * 2018-02-22 2018-08-17 重庆信络威科技有限公司 卷积核堆积数据流、压缩编码以及深度学习算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于残差量化卷积神经网络的人脸识别方法;周光朕等;《计算机系统应用》;20180815(第08期);全文 *

Also Published As

Publication number Publication date
CN111582432A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
KR102632647B1 (ko) 얼굴과 손을 관련지어 검출하는 방법 및 장치, 전자기기 및 기억매체
US20190228217A1 (en) Method, apparatus and device for waking up voice interaction function based on gesture, and computer readable medium
CN111582432B (zh) 一种网络参数处理方法及装置
CN107909583B (zh) 一种图像处理方法、装置及终端
US11556761B2 (en) Method and device for compressing a neural network model for machine translation and storage medium
CN110070063B (zh) 目标对象的动作识别方法、装置和电子设备
WO2020232976A1 (zh) 信息处理方法及装置、电子设备和存储介质
TW202036476A (zh) 圖像處理方法及裝置、電子設備和儲存介質
CN107608714B (zh) 字节对齐方法、装置及计算机可读存储介质
CN107133361B (zh) 手势识别方法、装置和终端设备
CN111985635A (zh) 一种加速神经网络推理处理的方法、装置及介质
US11373038B2 (en) Method and terminal for performing word segmentation on text information, and storage medium
CN111694768B (zh) 运算方法、装置及相关产品
CN112269595A (zh) 图像处理方法、装置、计算机设备及存储介质
US11966451B2 (en) Method for optimizing deep learning operator, device and storage medium
CN112055156A (zh) 预览图像更新方法、装置、移动终端及存储介质
CN115512116B (zh) 图像分割模型优化方法、装置、电子设备及可读存储介质
CN107193530B (zh) 一种生成随机数的方法和装置
CN113364993B (zh) 曝光参数值处理方法、装置和电子设备
CN110019657B (zh) 处理方法、装置和机器可读介质
CN111626398B (zh) 运算方法、装置及相关产品
CN116204073A (zh) 触控方法、装置、电子设备和存储介质
CN109871848B (zh) 一种移动终端的文字识别方法及装置
CN111984423A (zh) 一种运行深度学习模型的方法、装置及介质
US20150262033A1 (en) Method and terminal device for clustering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20201104

Address after: Room 206, 2 / F, building C, phase I, Zhongguancun Software Park, No. 8, Dongbei Wangxi Road, Haidian District, Beijing 100193

Applicant after: Canaan Bright Sight Co.,Ltd.

Address before: Room 101, block C, building 27, phase I, Zhongguancun Software Park, No.8, dongbeiwangxi Road, Haidian District, Beijing 100193

Applicant before: Canaan Creative Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240507

Address after: Room 101, 20th Floor, Building 1, Zone 1, No. 81 Beiqing Road, Haidian District, Beijing, 100094

Patentee after: Beijing Sisheng Technology Co.,Ltd.

Country or region after: China

Address before: Room 206, 2nd Floor, Block C, Building 27, Zhongguancun Software Park Phase 1, No. 8 Dongbei Wangxi Road, Haidian District, Beijing, 100193

Patentee before: Canaan Bright Sight Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right