CN108053028A - 数据定点化处理方法、装置、电子设备及计算机存储介质 - Google Patents
数据定点化处理方法、装置、电子设备及计算机存储介质 Download PDFInfo
- Publication number
- CN108053028A CN108053028A CN201711392617.2A CN201711392617A CN108053028A CN 108053028 A CN108053028 A CN 108053028A CN 201711392617 A CN201711392617 A CN 201711392617A CN 108053028 A CN108053028 A CN 108053028A
- Authority
- CN
- China
- Prior art keywords
- weight parameter
- parameter
- fixed point
- network model
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
一种数据定点化处理方法,所述方法包括:针对训练完成的第一卷积神经网络模型,提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。本发明能够确保在较低量化位宽下能达到较小的精度损失。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种数据定点化处理方法、装置、电子设备及计算机存储介质。
背景技术
卷积神经网络是机器学习算法中的一种重要算法。随着人们的不断研究,卷积神经网络的识别准确率不断提升,同时其算法的计算与存储复杂度也随之增长。
随着深度学习和图形处理器(Graphic Processing Unit,GPU)技术的大规模流行,诸如基于视频的目标检测、识别等任务逐渐涌现在人们的视野中而且时刻改变着我们的生活。GPU技术虽然有着强大的计算能力,但是在功耗和面积方面却非常高,这也限制了其在很多领域的应用,尤其是在终端产品上的扩展。数字信号处理(Digital SignalProcess,DSP)和ARM(Advanced RISC Machines)处理器有着功耗和面积方面的巨大优势,在很多终端产品上有着非常广阔的应用前景,但是由于这些平台的计算资源有限,一般采用定点数作为基本的数据结构。
通常来讲,某个算法在嵌入式平台上运行是需要有一个定点化的过程。这个过程会随着量化位宽的不同造成不同程度的精度损失,高的量化位宽会带来较小的精度损失同时运行效率会更慢,低的量化位宽会带来较高的精度损失同时运行效率会更快,一般需要在这两者之间做一个平衡。而深度学习算法由于其复杂度一般都较高,通常只能使用比较低的量化位宽来保证在终端设备上的运行效率,这样会造成比较大的精度损失。可见,如何在使用较低的量化位宽的同时又能保证较小的精度损失是一个亟待解决的技术难题。
发明内容
鉴于以上内容,有必要提供一种数据定点化处理方法、装置、电子设备及计算机存储介质,能够确保在较低量化位宽下能达到较小的精度损失。
一种数据定点化处理方法,所述方法包括:
针对训练完成的第一卷积神经网络模型,提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;
对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;
将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;
将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。
在一种可能的实现方式中,所述对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图包括:
从所述原始权重参数中确定最大权重参数和最小权重参数;根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,确定第一缩放因子;根据所述第一缩放因子,依次对每个所述原始权重参数进行量化处理以及四舍五入处理,并对四舍五入后的权重参数进行截断处理,获得第一权重参数;
从所述原始特征图中确定最大特征图和最小特征图;根据所述最大特征图、所述最小特征图以及预设的特征量化位宽,确定第二缩放因子;根据所述第二缩放因子,依次对每个所述原始特征图进行量化处理以及四舍五入处理,并对四舍五入后的特征图进行截断处理,获得第一特征图。
在一种可能的实现方式中,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:
若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数;
所述对四舍五入后的特征图进行截断处理,获得第一特征图包括:
若四舍五入后的特征图大于所述最大特征图,将所述最大特征图确定作为第一特征图;若四舍五入后的特征图小于所述最小特征图,将所述最小特征图确定作为第一特征图。
在一种可能的实现方式中,所述参数量化位宽为8比特,所述特征量化位宽为8比特。
在一种可能的实现方式中,所述方法还包括:
判断所述第一卷积神经网络模型是否完成定点化过程;
若否,确定i=i+1,并执行所述第一卷积神经网络模型的定点化过程。
在一种可能的实现方式中,所述方法还包括:
在所述第一卷积神经网络模型的所有数据层的定点化过程结束后,生成第二卷积神经网络模型。
在一种可能的实现方式中,所述第一卷积神经网络模型为浮点模型,所述第二卷积神经网络模型为定点模型。
一种数据定点化处理装置,所述数据定点化处理装置包括:
提取单元,用于针对训练完成的第一卷积神经网络模型,提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;
处理单元,用于对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;
转换单元,用于将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;
替换单元,用于将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。
一种电子设备,所述电子设备包括处理器和存储器,所述处理器用于执行存储器中存储的计算机程序以实现所述的数据定点化处理方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有至少一个指令,所述至少一个指令被处理器执行时实现所述的数据定点化处理方法。
由以上技术方案,本发明中,针对训练完成的第一卷积神经网络模型,电子设备可以先提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;进一步地,电子设备可以将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;更进一步地,电子设备可以将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。可见,通过本发明的实施例,针对训练完成的第一卷积神经网络模型,电子设备可以对该第一卷积神经网络模型的数据层的权重参数及特征图进行定点化处理,获得数据结构为定点数的权重参数和特征图,进一步再将定点数的权重参数和特征图分别转化为浮点数,用来替换原始的权重参数和特征图,从而能够在现有的浮点框架基础上,通过对原始的权重参数和特征图的定点化处理,使得处理后的权重参数和特征图能达到定点数的精度范围,并能够在浮点框架上兼容,进而能够确保在较低量化位宽下能达到较小的精度损失。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明公开的一种数据定点化处理方法的较佳实施例的流程图。
图2是本发明公开的另一种数据定点化处理方法的较佳实施例的流程图。
图3是本发明公开的一种数据定点化处理装置的较佳实施例的功能模块图。
图4是本发明实现数据定点化处理方法的较佳实施例的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
其中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、交互式网络电视(Internet ProtocolTelevision,IPTV)等。
请参见图1,图1是本发明公开的一种数据定点化处理方法的较佳实施例的流程图。其中,根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
S11、针对训练完成的第一卷积神经网络模型,电子设备提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图。
其中,所述i为初始化的网络层数,所述i为正整数。原始权重参数为训练完成的第一卷积神经网络模型第i数据层的权重参数,原始特征图训练完成的第一卷积神经网络模型第i数据层的特征图,其中,每个数据层的权重参数可以有多个,每个数据层输出的特征图也可以有多个,具体数量取决于第一卷积神经网络模型的结构。
本发明使用的深度学习框架均采用浮点作为其基本数据结构,该深度学习框架可以包括但不限于Caffe、MxNet、TensorFlow等。该训练完成的第一卷积神经网络模型为浮点模型,即该第一卷积神经网络模型的每个数据层的数据结构为浮点数。
其中,在第一卷积神经网络模型的训练过程中,通常是将第i数据层的特征图和第(i+1)数据层的权重参数进行卷积操作来确定第(i+1)数据层的特征图。以此类推,直至生成第一卷积神经网络模型。
S12、电子设备对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图。
本发明中,为了在嵌入式平台上运行,需要有个定点化的过程。本发明可以使用任意的浮点框架对第一卷积神经网络模型进行训练,比如使用caffe作为基础训练框架,训练网络使用ResNet18,数据使用Minist。
电子设备在提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图之后,可以对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图。
其中,可以使用8bit的参数量化位宽对原始权重参数进行定点化处理,使用8bit的特征量化位宽对原始特征图进行定点化处理,该定点化处理后的第一权重参数的数据结构为定点数,该定点化处理后的第一特征图的数据结构为定点数。
具体的,所述电子设备对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图包括:
从所述原始权重参数中确定最大权重参数和最小权重参数;根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,确定第一缩放因子;根据所述第一缩放因子,依次对每个所述原始权重参数进行量化处理以及四舍五入处理,并对四舍五入后的权重参数进行截断处理,获得第一权重参数;
从所述原始特征图中确定最大特征图和最小特征图;根据所述最大特征图、所述最小特征图以及预设的特征量化位宽,确定第二缩放因子;根据所述第二缩放因子,依次对每个所述原始特征图进行量化处理以及四舍五入处理,并对四舍五入后的特征图进行截断处理,获得第一特征图。
具体的,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:
若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数;
所述对四舍五入后的特征图进行截断处理,获得第一特征图包括:
若四舍五入后的特征图大于所述最大特征图,将所述最大特征图确定作为第一特征图;若四舍五入后的特征图小于所述最小特征图,将所述最小特征图确定作为第一特征图。
其中,预设的参数量化位宽以及预设的特征量化位宽均是指一个较低的量化位宽,根据多次试验,本发明适用的较低的量化位宽的范围可以为(6,12)bit,举例来说,所述参数量化位宽可以为8比特,所述特征量化位宽可以为8比特。需要说明的是,由于不同卷积神经网络的结构不同,使得较低的量化位宽的范围也会不同,不同的量化位宽所导致的精度损失也会不一样,本发明所提供的一个较低的量化位宽仅仅是通过实验数据得到的一个较低的范围,并不代表所有的卷积神经网络或框架模型所适用的较低量化位宽的范围。
在该实施方式中,每个数据层均有多个权重参数,电子设备可以从第i数据层提取的原始权重参数M中确定最大权重参数和最小权重参数,比如pmax=max(M),pmin=min(M)。进一步地,根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,找出一个合适的缩放因子α,确保原始权重参数M能使用预设的参数量化位宽(如8bit)来表达,具体方法如下:
8bit能表示的数的取值范围为[-128,127],缩放因子α应当满足αpmax≤127,并且αpmin>-128,通常缩放因子α为整数,根据上述的调节,可以唯一确定合适的缩放因子α。
进一步地,根据确定的缩放因子,可以依次对每个所述原始权重参数进行量化处理以及四舍五入处理。具体的,将每个所述原始权重参数与缩放因子进行相乘,并将相乘的结果进行四舍五入处理。
更进一步地,可以对四舍五入后的权重参数进行截断处理,获得第一权重参数。具体的,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数。即:当原始权重参数M中的某个参数大于pmax时,将该某个参数重新赋值为pmax,当原始权重参数M中的某个参数小于pmin,将该某个参数重新赋值为pmin。
类似的,每个数据层的输出均有多个特征图,电子设备可以参照对原始权重参数类似的定点化处理方式来对原始特征图进行定点化处理,获得第一特征图包括,在此不再赘述。
S13、电子设备将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图。
本发明中,电子设备获得的所述第一权重参数的数据结构以及所述第一特征图的数据结构均是定点数,而定点数在现有的浮点框架上是无法运行的,需要转换数据结构。
具体的,电子设备可以将所述第一权重参数除以第一缩放因子,以获得数据结构为浮点数的第二权重参数,同理,电子设备可以将所述第一特征图除以第二缩放因子,以获得数据结构为浮点数的第二特征图。其中,该第二权重参数以及所述第二特征图虽然是浮点数据类型,但是该第二权重参数以及所述第二特征图均达到了定点数的精度范围,不仅能够适用于现有的浮点框架,还能够在较低位宽下达到较小的性能损失。
S14、电子设备将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。
本发明中,所述原始权重参数有多个,相应地,所述第二权重参数也有多个,同理,所述原始特征图有多个,相应地,所述第二特征图也有多个。针对每个所述原始权重参数,电子设备需要将所述原始权重参数替换为所述第二权重参数,针对每个所述第二特征图,电子设备需要将所述原始特征图替换为所述第二特征图。
上述替换是在第一卷积神经网络第i数据层上的原始权重参数以及原始特征图的替换,以此类推,电子设备可以按照上述对第一卷积神经网络第i数据层上的原始权重参数以及原始特征图的定点化处理方式来对第一卷积神经网络的其他数据层进行定点化处理,直至完成整个第一卷积神经网络的定点化过程。
在图1所描述的方法流程中,针对训练完成的第一卷积神经网络模型,电子设备可以先提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;进一步地,电子设备可以将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;更进一步地,电子设备可以将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。可见,通过本发明的实施例,针对训练完成的第一卷积神经网络模型,电子设备可以对该第一卷积神经网络模型的数据层的权重参数及特征图进行定点化处理,获得数据结构为定点数的权重参数和特征图,进一步再将定点数的权重参数和特征图分别转化为浮点数,用来替换原始的权重参数和特征图,从而能够在现有的浮点框架基础上,通过对原始的权重参数和特征图的定点化处理,使得处理后的权重参数和特征图能达到定点数的精度范围,并能够在浮点框架上兼容,进而能够确保在较低量化位宽下能达到较小的精度损失。
请参见图2,图2是本发明公开的另一种数据定点化处理方法的较佳实施例的流程图。其中,根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
S21、针对训练完成的第一卷积神经网络模型,电子设备提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图。
其中,所述i为初始化的网络层数,所述i为正整数。原始权重参数为训练完成的第一卷积神经网络模型第i数据层的权重参数,原始特征图训练完成的第一卷积神经网络模型第i数据层的特征图,其中,每个数据层的权重参数可以有多个,每个数据层输出的特征图也可以有多个,具体数量取决于第一卷积神经网络模型的结构。
本发明使用的深度学习框架均采用浮点作为其基本数据结构,该深度学习框架可以包括但不限于Caffe、MxNet、TensorFlow等。该训练完成的第一卷积神经网络模型为浮点模型,即该第一卷积神经网络模型的每个数据层的数据结构为浮点数。
其中,在第一卷积神经网络模型的训练过程中,通常是将第i数据层的特征图和第(i+1)数据层的权重参数进行卷积操作来确定第(i+1)数据层的特征图。以此类推,直至生成第一卷积神经网络模型。
S22、电子设备对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图。
本发明中,为了在嵌入式平台上运行,需要有个定点化的过程。本发明可以使用任意的浮点框架对第一卷积神经网络模型进行训练,比如使用caffe作为基础训练框架,训练网络使用ResNet18,数据使用Minist。
电子设备在提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图之后,可以对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图。
其中,可以使用8bit的参数量化位宽对原始权重参数进行定点化处理,使用8bit的特征量化位宽对原始特征图进行定点化处理,该定点化处理后的第一权重参数的数据结构为定点数,该定点化处理后的第一特征图的数据结构为定点数。
具体的,所述电子设备对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图包括:
从所述原始权重参数中确定最大权重参数和最小权重参数;根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,确定第一缩放因子;根据所述第一缩放因子,依次对每个所述原始权重参数进行量化处理以及四舍五入处理,并对四舍五入后的权重参数进行截断处理,获得第一权重参数;
从所述原始特征图中确定最大特征图和最小特征图;根据所述最大特征图、所述最小特征图以及预设的特征量化位宽,确定第二缩放因子;根据所述第二缩放因子,依次对每个所述原始特征图进行量化处理以及四舍五入处理,并对四舍五入后的特征图进行截断处理,获得第一特征图。
其中,所述参数量化位宽为8比特,所述特征量化位宽为8比特。
具体的,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:
若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数;
所述对四舍五入后的特征图进行截断处理,获得第一特征图包括:
若四舍五入后的特征图大于所述最大特征图,将所述最大特征图确定作为第一特征图;若四舍五入后的特征图小于所述最小特征图,将所述最小特征图确定作为第一特征图。
在该实施方式中,每个数据层均有多个权重参数,电子设备可以从第i数据层提取的原始权重参数M中确定最大权重参数和最小权重参数,比如pmax=max(M),pmin=min(M)。进一步地,根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,找出一个合适的缩放因子α,确保原始权重参数M能使用预设的参数量化位宽(如8bit)来表达,具体方法如下:
8bit能表示的数的取值范围为[-128,127],缩放因子α应当满足αpmax≤127,并且αpmin>-128,通常缩放因子α为整数,根据上述的调节,可以唯一确定合适的缩放因子α。
进一步地,根据确定的缩放因子,可以依次对每个所述原始权重参数进行量化处理以及四舍五入处理。具体的,将每个所述原始权重参数与缩放因子进行相乘,并将相乘的结果进行四舍五入处理。
更进一步地,可以对四舍五入后的权重参数进行截断处理,获得第一权重参数。具体的,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数。即:当原始权重参数M中的某个参数大于pmax时,将该某个参数重新赋值为pmax,当原始权重参数M中的某个参数小于pmin,将该某个参数重新赋值为pmin。
类似的,每个数据层的输出均有多个特征图,电子设备可以参照对原始权重参数类似的定点化处理方式来对原始特征图进行定点化处理,获得第一特征图包括,在此不再赘述。
S23、电子设备将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图。
本发明中,电子设备获得的所述第一权重参数的数据结构以及所述第一特征图的数据结构均是定点数,而定点数在现有的浮点框架上是无法运行的,需要转换数据结构。
具体的,电子设备可以将所述第一权重参数除以第一缩放因子,以获得数据结构为浮点数的第二权重参数,同理,电子设备可以将所述第一特征图除以第二缩放因子,以获得数据结构为浮点数的第二特征图。其中,该第二权重参数以及所述第二特征图虽然是浮点数据类型,但是该第二权重参数以及所述第二特征图均达到了定点数的精度范围,不仅能够适用于现有的浮点框架,还能够在较低位宽下达到较小的性能损失。
S24、电子设备将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。
本发明中,所述原始权重参数有多个,相应地,所述第二权重参数也有多个,同理,所述原始特征图有多个,相应地,所述第二特征图也有多个。针对每个所述原始权重参数,电子设备需要将所述原始权重参数替换为所述第二权重参数,针对每个所述第二特征图,电子设备需要将所述原始特征图替换为所述第二特征图。
S25、电子设备判断所述第一卷积神经网络模型是否完成定点化过程,若否,执行步骤S26至S27,若是,执行步骤S27。
本发明中,电子设备需要对所述第一卷积神经网络模型的每个数据层的数据进行定点化处理,故电子设备在对第i数据层完成定点化过程后,还需要进一步判断所述第一卷积神经网络模型是否完成定点化过程,若未完成,电子设备需要对下一个数据层的数据进行定点化处理,即令i=i+1进行迭代,直至完成所述第一卷积神经网络模型的定点化过程。
S26、电子设备确定i=i+1,并执行所述第一卷积神经网络模型的定点化过程。
S27、在所述第一卷积神经网络模型的所有数据层的定点化过程结束后,生成第二卷积神经网络模型。
其中,所述第一卷积神经网络模型为浮点模型,所述第二卷积神经网络模型为定点模型。
在图2所描述的方法流程中,电子设备需要对第一卷积神经网络的每个数据层的权重参数和特征图都进行定点化处理,在所述第一卷积神经网络模型的所有数据层的定点化过程结束后,可以生成第二卷积神经网络模型,第二卷积神经网络模型具备兼容性,可以适用于现有传统的浮点框架,同时能够保证在较低位宽下达到较小的精度损失。
请参见图3,图3是本发明公开的一种数据定点化处理装置的较佳实施例的功能模块图。其中,图3描述的数据定点化处理装置用于执行图1或图2所描述的数据定点化处理方法中的部分或全部步骤。本发明所称的单元是指一种能够被处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于各单元的功能将在后续的实施例中详述。
图3所描述的数据定点化处理装置11可以包括:
提取单元101,用于针对训练完成的第一卷积神经网络模型,提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;
其中,所述i为初始化的网络层数,所述i为正整数。原始权重参数为训练完成的第一卷积神经网络模型第i数据层的权重参数,原始特征图训练完成的第一卷积神经网络模型第i数据层的特征图,其中,每个数据层的权重参数可以有多个,每个数据层输出的特征图也可以有多个,具体数量取决于第一卷积神经网络模型的结构。
本发明使用的深度学习框架均采用浮点作为其基本数据结构,该深度学习框架可以包括但不限于Caffe、MxNet、TensorFlow等。该训练完成的第一卷积神经网络模型为浮点模型,即该第一卷积神经网络模型的每个数据层的数据结构为浮点数。
其中,在第一卷积神经网络模型的训练过程中,通常是将第i数据层的特征图和第(i+1)数据层的权重参数进行卷积操作来确定第(i+1)数据层的特征图。以此类推,直至生成第一卷积神经网络模型。
处理单元102,用于对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;
本发明中,为了在嵌入式平台上运行,需要有个定点化的过程。本发明可以使用任意的浮点框架对第一卷积神经网络模型进行训练,比如使用caffe作为基础训练框架,训练网络使用ResNet18,数据使用Minist。
电子设备在提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图之后,可以对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图。
其中,可以使用8bit的参数量化位宽对原始权重参数进行定点化处理,使用8bit的特征量化位宽对原始特征图进行定点化处理,该定点化处理后的第一权重参数的数据结构为定点数,该定点化处理后的第一特征图的数据结构为定点数。
转换单元103,用于将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;
本发明中,电子设备获得的所述第一权重参数的数据结构以及所述第一特征图的数据结构均是定点数,而定点数在现有的浮点框架上是无法运行的,需要转换数据结构。
具体的,电子设备可以将所述第一权重参数除以第一缩放因子,以获得数据结构为浮点数的第二权重参数,同理,电子设备可以将所述第一特征图除以第二缩放因子,以获得数据结构为浮点数的第二特征图。其中,该第二权重参数以及所述第二特征图虽然是浮点数据类型,但是该第二权重参数以及所述第二特征图均达到了定点数的精度范围,不仅能够适用于现有的浮点框架,还能够在较低位宽下达到较小的性能损失。
替换单元104,用于将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。
本发明中,所述原始权重参数有多个,相应地,所述第二权重参数也有多个,同理,所述原始特征图有多个,相应地,所述第二特征图也有多个。针对每个所述原始权重参数,电子设备需要将所述原始权重参数替换为所述第二权重参数,针对每个所述第二特征图,电子设备需要将所述原始特征图替换为所述第二特征图。
上述替换是在第一卷积神经网络第i数据层上的原始权重参数以及原始特征图的替换,以此类推,电子设备可以按照上述对第一卷积神经网络第i数据层上的原始权重参数以及原始特征图的定点化处理方式来对第一卷积神经网络的其他数据层进行定点化处理,直至完成整个第一卷积神经网络的定点化过程。
可选的,所述处理单元102对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图包括:
从所述原始权重参数中确定最大权重参数和最小权重参数;根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,确定第一缩放因子;根据所述第一缩放因子,依次对每个所述原始权重参数进行量化处理以及四舍五入处理,并对四舍五入后的权重参数进行截断处理,获得第一权重参数;
从所述原始特征图中确定最大特征图和最小特征图;根据所述最大特征图、所述最小特征图以及预设的特征量化位宽,确定第二缩放因子;根据所述第二缩放因子,依次对每个所述原始特征图进行量化处理以及四舍五入处理,并对四舍五入后的特征图进行截断处理,获得第一特征图。
其中,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:
若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数;
所述对四舍五入后的特征图进行截断处理,获得第一特征图包括:
若四舍五入后的特征图大于所述最大特征图,将所述最大特征图确定作为第一特征图;若四舍五入后的特征图小于所述最小特征图,将所述最小特征图确定作为第一特征图。
其中,所述参数量化位宽为8比特,所述特征量化位宽为8比特。
在该实施方式中,每个数据层均有多个权重参数,电子设备可以从第i数据层提取的原始权重参数M中确定最大权重参数和最小权重参数,比如pmax=max(M),pmin=min(M)。进一步地,根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,找出一个合适的缩放因子α,确保原始权重参数M能使用预设的参数量化位宽(如8bit)来表达,具体方法如下:
8bit能表示的数的取值范围为[-128,127],缩放因子α应当满足αpmax≤127,并且αpmin>-128,通常缩放因子α为整数,根据上述的调节,可以唯一确定合适的缩放因子α。
进一步地,根据确定的缩放因子,可以依次对每个所述原始权重参数进行量化处理以及四舍五入处理。具体的,将每个所述原始权重参数与缩放因子进行相乘,并将相乘的结果进行四舍五入处理。
更进一步地,可以对四舍五入后的权重参数进行截断处理,获得第一权重参数。具体的,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数。即:当原始权重参数M中的某个参数大于pmax时,将该某个参数重新赋值为pmax,当原始权重参数M中的某个参数小于pmin,将该某个参数重新赋值为pmin。
类似的,每个数据层的输出均有多个特征图,电子设备可以参照对原始权重参数类似的定点化处理方式来对原始特征图进行定点化处理,获得第一特征图包括,在此不再赘述。
可选的,图3所描述的数据定点化处理装置11还可以包括:
判断单元,用于判断所述第一卷积神经网络模型是否完成定点化过程;
确定执行单元,用于当所述判断单元判断所述第一卷积神经网络模型未完成定点化过程时,确定i=i+1,并执行所述第一卷积神经网络模型的定点化过程。
可选的,图3所描述的数据定点化处理装置11还可以包括:
生成单元,用于在所述第一卷积神经网络模型的所有数据层的定点化过程结束后,生成第二卷积神经网络模型。
在图3所描述的数据定点化处理装置中,针对训练完成的第一卷积神经网络模型,可以先提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;进一步地,可以将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;更进一步地,可以将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。可见,通过本发明的实施例,针对训练完成的第一卷积神经网络模型,电子设备可以对该第一卷积神经网络模型的数据层的权重参数及特征图进行定点化处理,获得数据结构为定点数的权重参数和特征图,进一步再将定点数的权重参数和特征图分别转化为浮点数,用来替换原始的权重参数和特征图,从而能够在现有的浮点框架基础上,通过对原始的权重参数和特征图的定点化处理,使得处理后的权重参数和特征图能达到定点数的精度范围,并能够在浮点框架上兼容,进而能够确保在较低量化位宽下能达到较小的精度损失。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读存储介质中。其中,该计算机可读存储介质可以存储计算机程序,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
如图4所示,图4是本发明实现数据定点化处理方法的较佳实施例的电子设备的结构示意图。所述电子设备1包括存储器12及处理器13。本领域技术人员可以理解,所述图4所示的示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述电子设备1还包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(InternetProtocol Television,IPTV)、智能式穿戴式设备等。所述电子设备1所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
所述存储器12可选地包括一个或多个计算机可读存储介质,用于存储一种数据定点化处理方法的程序和各种数据,并在运行过程中实现高速、自动地完成程序或数据的存取。所述存储器12可选地包括高速随机存取存储器,并且还可选地包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备、或其它非易失性固态存储器设备。
所述处理器13又称中央处理器(CPU,Central Processing Unit),是一块超大规模的集成电路,是电子设备1的运算核心(Core)和控制核心(Control Unit)。所述处理器13可执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等,例如数据定点化处理装置11。
结合图1或图2,所述电子设备1中的所述存储器12存储多个指令以实现一种数据定点化处理方法,所述处理器13可执行所述多个指令从而实现:
针对训练完成的第一卷积神经网络模型,提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;
对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;
将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;
将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。
在一种可选的实施方式中,所述对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图包括:
从所述原始权重参数中确定最大权重参数和最小权重参数;根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,确定第一缩放因子;根据所述第一缩放因子,依次对每个所述原始权重参数进行量化处理以及四舍五入处理,并对四舍五入后的权重参数进行截断处理,获得第一权重参数;
从所述原始特征图中确定最大特征图和最小特征图;根据所述最大特征图、所述最小特征图以及预设的特征量化位宽,确定第二缩放因子;根据所述第二缩放因子,依次对每个所述原始特征图进行量化处理以及四舍五入处理,并对四舍五入后的特征图进行截断处理,获得第一特征图。
在一种可选的实施方式中,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:
若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数;
所述对四舍五入后的特征图进行截断处理,获得第一特征图包括:
若四舍五入后的特征图大于所述最大特征图,将所述最大特征图确定作为第一特征图;若四舍五入后的特征图小于所述最小特征图,将所述最小特征图确定作为第一特征图。
在一种可选的实施方式中,所述参数量化位宽为8比特,所述特征量化位宽为8比特。
在一种可选的实施方式中,所述处理器13可执行所述多个指令从而实现:
判断所述第一卷积神经网络模型是否完成定点化过程;
若否,确定i=i+1,并执行所述第一卷积神经网络模型的定点化过程。
在一种可选的实施方式中,所述处理器13可执行所述多个指令从而实现:
在所述第一卷积神经网络模型的所有数据层的定点化过程结束后,生成第二卷积神经网络模型。
具体地,所述处理器13对上述指令的具体实现方法可参考图1或图2对应实施例中相关步骤的描述,在此不赘述。
在图4所描述的电子设备1中,针对训练完成的第一卷积神经网络模型,电子设备可以先提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;进一步地,电子设备可以将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;更进一步地,电子设备可以将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。可见,通过本发明的实施例,针对训练完成的第一卷积神经网络模型,电子设备可以对该第一卷积神经网络模型的数据层的权重参数及特征图进行定点化处理,获得数据结构为定点数的权重参数和特征图,进一步再将定点数的权重参数和特征图分别转化为浮点数,用来替换原始的权重参数和特征图,从而能够在现有的浮点框架基础上,通过对原始的权重参数和特征图的定点化处理,使得处理后的权重参数和特征图能达到定点数的精度范围,并能够在浮点框架上兼容,进而能够确保在较低量化位宽下能达到较小的精度损失。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种数据定点化处理方法,其特征在于,所述方法包括:
针对训练完成的第一卷积神经网络模型,提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;
对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;
将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;
将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。
2.根据权利要求1所述的方法,其特征在于,所述对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图包括:
从所述原始权重参数中确定最大权重参数和最小权重参数;根据所述最大权重参数、所述最小权重参数以及预设的参数量化位宽,确定第一缩放因子;根据所述第一缩放因子,依次对每个所述原始权重参数进行量化处理以及四舍五入处理,并对四舍五入后的权重参数进行截断处理,获得第一权重参数;
从所述原始特征图中确定最大特征图和最小特征图;根据所述最大特征图、所述最小特征图以及预设的特征量化位宽,确定第二缩放因子;根据所述第二缩放因子,依次对每个所述原始特征图进行量化处理以及四舍五入处理,并对四舍五入后的特征图进行截断处理,获得第一特征图。
3.根据权利要求2所述的方法,其特征在于,所述对四舍五入后的权重参数进行截断处理,获得第一权重参数包括:
若四舍五入后的权重参数大于所述最大权重参数,将所述最大权重参数确定作为第一权重参数;若四舍五入后的权重参数小于所述最小权重参数,将所述最小权重参数确定作为第一权重参数;
所述对四舍五入后的特征图进行截断处理,获得第一特征图包括:
若四舍五入后的特征图大于所述最大特征图,将所述最大特征图确定作为第一特征图;若四舍五入后的特征图小于所述最小特征图,将所述最小特征图确定作为第一特征图。
4.根据权利要求2所述的方法,其特征在于,所述参数量化位宽为8比特,所述特征量化位宽为8比特。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述方法还包括:
判断所述第一卷积神经网络模型是否完成定点化过程;
若否,确定i=i+1,并执行所述第一卷积神经网络模型的定点化过程。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
在所述第一卷积神经网络模型的所有数据层的定点化过程结束后,生成第二卷积神经网络模型。
7.根据权利要求6所述的方法,其特征在于,所述第一卷积神经网络模型为浮点模型,所述第二卷积神经网络模型为定点模型。
8.一种数据定点化处理装置,其特征在于,所述数据定点化处理装置包括:
提取单元,用于针对训练完成的第一卷积神经网络模型,提取所述第一卷积神经网络模型第i数据层的原始权重参数和原始特征图,其中,所述i为初始化的网络层数,所述i为正整数;
处理单元,用于对所述原始权重参数和所述原始特征图分别进行定点化处理,获得第一权重参数和第一特征图;
转换单元,用于将所述第一权重参数以及所述第一特征图分别转化为浮点数,获得第二权重参数以及所述第二特征图;
替换单元,用于将所述原始权重参数替换为所述第二权重参数,以及将所述原始特征图替换为所述第二特征图。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述处理器用于执行存储器中存储的计算机程序以实现如权利要求1至7中任意一项所述的数据定点化处理方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有至少一个指令,所述至少一个指令被处理器执行时实现如权利要求1至7任意一项所述的数据定点化处理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711392617.2A CN108053028B (zh) | 2017-12-21 | 2017-12-21 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
PCT/CN2018/120512 WO2019120114A1 (zh) | 2017-12-21 | 2018-12-12 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711392617.2A CN108053028B (zh) | 2017-12-21 | 2017-12-21 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108053028A true CN108053028A (zh) | 2018-05-18 |
CN108053028B CN108053028B (zh) | 2021-09-14 |
Family
ID=62131187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711392617.2A Active CN108053028B (zh) | 2017-12-21 | 2017-12-21 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108053028B (zh) |
WO (1) | WO2019120114A1 (zh) |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697083A (zh) * | 2018-12-27 | 2019-04-30 | 深圳云天励飞技术有限公司 | 数据的定点化加速方法、装置、电子设备及存储介质 |
WO2019120114A1 (zh) * | 2017-12-21 | 2019-06-27 | 深圳励飞科技有限公司 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
CN110135568A (zh) * | 2019-05-28 | 2019-08-16 | 赵恒锐 | 一种应用有界线性整流单元的全整数神经网络系统 |
CN110298438A (zh) * | 2019-07-05 | 2019-10-01 | 北京中星微电子有限公司 | 神经网络模型的调整方法和调整装置 |
CN110309877A (zh) * | 2019-06-28 | 2019-10-08 | 北京百度网讯科技有限公司 | 一种特征图数据的量化方法、装置、电子设备及存储介质 |
WO2020024093A1 (en) * | 2018-07-30 | 2020-02-06 | Intel Corporation | Method and apparatus for keeping statistical inference accuracy with 8-bit winograd convolution |
WO2020029708A1 (zh) * | 2018-08-07 | 2020-02-13 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
CN110929837A (zh) * | 2018-09-19 | 2020-03-27 | 北京搜狗科技发展有限公司 | 神经网络模型压缩方法及装置 |
CN111126558A (zh) * | 2018-10-31 | 2020-05-08 | 北京嘉楠捷思信息技术有限公司 | 一种卷积神经网络计算加速方法及装置、设备、介质 |
CN111191783A (zh) * | 2018-11-15 | 2020-05-22 | 北京嘉楠捷思信息技术有限公司 | 一种自适应量化方法及装置、设备、介质 |
CN111353517A (zh) * | 2018-12-24 | 2020-06-30 | 杭州海康威视数字技术股份有限公司 | 一种车牌识别方法、装置及电子设备 |
WO2020135601A1 (zh) * | 2018-12-29 | 2020-07-02 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、车载运算平台、电子设备及系统 |
CN111461302A (zh) * | 2020-03-30 | 2020-07-28 | 杭州嘉楠耘智信息科技有限公司 | 一种基于卷积神经网络的数据处理方法、设备及存储介质 |
CN111695671A (zh) * | 2019-03-12 | 2020-09-22 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
CN111985495A (zh) * | 2020-07-09 | 2020-11-24 | 珠海亿智电子科技有限公司 | 模型部署方法、装置、系统及存储介质 |
CN112085193A (zh) * | 2019-06-12 | 2020-12-15 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
WO2021044244A1 (en) * | 2019-09-03 | 2021-03-11 | International Business Machines Corporation | Machine learning hardware having reduced precision parameter components for efficient parameter update |
CN113255901A (zh) * | 2021-07-06 | 2021-08-13 | 上海齐感电子信息科技有限公司 | 实时量化方法及实时量化系统 |
CN113593538A (zh) * | 2021-09-02 | 2021-11-02 | 北京声智科技有限公司 | 语音特征的分类方法、相关设备及可读存储介质 |
US11397579B2 (en) | 2018-02-13 | 2022-07-26 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
US11442785B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
US11513586B2 (en) | 2018-02-14 | 2022-11-29 | Shanghai Cambricon Information Technology Co., Ltd | Control device, method and equipment for processor |
US11544059B2 (en) | 2018-12-28 | 2023-01-03 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Signal processing device, signal processing method and related products |
US11609760B2 (en) | 2018-02-13 | 2023-03-21 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
US11762690B2 (en) | 2019-04-18 | 2023-09-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11847554B2 (en) | 2019-04-18 | 2023-12-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11966583B2 (en) | 2018-08-28 | 2024-04-23 | Cambricon Technologies Corporation Limited | Data pre-processing method and device, and related computer device and storage medium |
CN110929837B (zh) * | 2018-09-19 | 2024-05-10 | 北京搜狗科技发展有限公司 | 一种联想词预测方法及装置 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110363297A (zh) * | 2019-07-05 | 2019-10-22 | 上海商汤临港智能科技有限公司 | 神经网络训练及图像处理方法、装置、设备和介质 |
CN112308105B (zh) * | 2019-08-02 | 2024-04-12 | 北京图森智途科技有限公司 | 目标检测方法、目标检测器及相关设备 |
CN112561779B (zh) * | 2019-09-26 | 2023-09-29 | 北京字节跳动网络技术有限公司 | 图像风格化处理方法、装置、设备及存储介质 |
CN111310890B (zh) * | 2020-01-19 | 2023-10-17 | 深圳云天励飞技术有限公司 | 深度学习模型的优化方法、装置及终端设备 |
CN111368978B (zh) * | 2020-03-02 | 2023-03-24 | 开放智能机器(上海)有限公司 | 一种离线量化工具的精度提升方法 |
CN111783957B (zh) * | 2020-07-02 | 2024-05-03 | 厦门美图之家科技有限公司 | 模型量化训练方法、装置、机器可读存储介质及电子设备 |
CN113177471A (zh) * | 2021-04-28 | 2021-07-27 | Oppo广东移动通信有限公司 | 动作检测方法、装置、电子设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102981854A (zh) * | 2012-11-16 | 2013-03-20 | 天津市天祥世联网络科技有限公司 | 基于浮点数运算内联函数库的神经网络优化方法 |
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
CN106326939A (zh) * | 2016-08-31 | 2017-01-11 | 深圳市诺比邻科技有限公司 | 卷积神经网络的参数优化方法及系统 |
US9563825B2 (en) * | 2014-11-20 | 2017-02-07 | Adobe Systems Incorporated | Convolutional neural network using a binarized convolution layer |
CN106502626A (zh) * | 2016-11-03 | 2017-03-15 | 北京百度网讯科技有限公司 | 数据处理方法和装置 |
CN106575379A (zh) * | 2014-09-09 | 2017-04-19 | 英特尔公司 | 用于神经网络的改进的定点整型实现方式 |
CN106570559A (zh) * | 2015-10-09 | 2017-04-19 | 阿里巴巴集团控股有限公司 | 一种基于神经网络的数据处理方法和装置 |
CN106855952A (zh) * | 2016-12-29 | 2017-06-16 | 北京旷视科技有限公司 | 基于神经网络的计算方法及装置 |
US20170286830A1 (en) * | 2016-04-04 | 2017-10-05 | Technion Research & Development Foundation Limited | Quantized neural network training and inference |
CN107239829A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种优化人工神经网络的方法 |
CN107292334A (zh) * | 2017-06-08 | 2017-10-24 | 北京深瞐科技有限公司 | 图像识别方法及装置 |
CN107451658A (zh) * | 2017-07-24 | 2017-12-08 | 杭州菲数科技有限公司 | 浮点运算定点化方法及系统 |
CN107480770A (zh) * | 2017-07-27 | 2017-12-15 | 中国科学院自动化研究所 | 可调节量化位宽的神经网络量化与压缩的方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934331B (zh) * | 2016-04-29 | 2020-06-19 | 中科寒武纪科技股份有限公司 | 用于执行人工神经网络正向运算的装置和方法 |
CN108053028B (zh) * | 2017-12-21 | 2021-09-14 | 深圳励飞科技有限公司 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
-
2017
- 2017-12-21 CN CN201711392617.2A patent/CN108053028B/zh active Active
-
2018
- 2018-12-12 WO PCT/CN2018/120512 patent/WO2019120114A1/zh active Application Filing
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102981854A (zh) * | 2012-11-16 | 2013-03-20 | 天津市天祥世联网络科技有限公司 | 基于浮点数运算内联函数库的神经网络优化方法 |
CN106575379A (zh) * | 2014-09-09 | 2017-04-19 | 英特尔公司 | 用于神经网络的改进的定点整型实现方式 |
US9563825B2 (en) * | 2014-11-20 | 2017-02-07 | Adobe Systems Incorporated | Convolutional neural network using a binarized convolution layer |
CN106570559A (zh) * | 2015-10-09 | 2017-04-19 | 阿里巴巴集团控股有限公司 | 一种基于神经网络的数据处理方法和装置 |
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
US20170286830A1 (en) * | 2016-04-04 | 2017-10-05 | Technion Research & Development Foundation Limited | Quantized neural network training and inference |
CN107239829A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种优化人工神经网络的方法 |
CN106326939A (zh) * | 2016-08-31 | 2017-01-11 | 深圳市诺比邻科技有限公司 | 卷积神经网络的参数优化方法及系统 |
CN106502626A (zh) * | 2016-11-03 | 2017-03-15 | 北京百度网讯科技有限公司 | 数据处理方法和装置 |
CN106855952A (zh) * | 2016-12-29 | 2017-06-16 | 北京旷视科技有限公司 | 基于神经网络的计算方法及装置 |
CN107292334A (zh) * | 2017-06-08 | 2017-10-24 | 北京深瞐科技有限公司 | 图像识别方法及装置 |
CN107451658A (zh) * | 2017-07-24 | 2017-12-08 | 杭州菲数科技有限公司 | 浮点运算定点化方法及系统 |
CN107480770A (zh) * | 2017-07-27 | 2017-12-15 | 中国科学院自动化研究所 | 可调节量化位宽的神经网络量化与压缩的方法及装置 |
Non-Patent Citations (2)
Title |
---|
SAJID ANWAR等: "《Fixed point optimization of deep convolutional neural networks for object recognition》", 《2015 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
王佩琪等: "《深度卷积神经网络的数据表示方法分析与实践》", 《计算机研究与发展》 * |
Cited By (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
WO2019120114A1 (zh) * | 2017-12-21 | 2019-06-27 | 深圳励飞科技有限公司 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
US11397579B2 (en) | 2018-02-13 | 2022-07-26 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11740898B2 (en) | 2018-02-13 | 2023-08-29 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11709672B2 (en) | 2018-02-13 | 2023-07-25 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11704125B2 (en) | 2018-02-13 | 2023-07-18 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Computing device and method |
US11663002B2 (en) | 2018-02-13 | 2023-05-30 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11620130B2 (en) | 2018-02-13 | 2023-04-04 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11609760B2 (en) | 2018-02-13 | 2023-03-21 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11507370B2 (en) | 2018-02-13 | 2022-11-22 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Method and device for dynamically adjusting decimal point positions in neural network computations |
US11513586B2 (en) | 2018-02-14 | 2022-11-29 | Shanghai Cambricon Information Technology Co., Ltd | Control device, method and equipment for processor |
US11442785B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
US11442786B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
WO2020024093A1 (en) * | 2018-07-30 | 2020-02-06 | Intel Corporation | Method and apparatus for keeping statistical inference accuracy with 8-bit winograd convolution |
WO2020029708A1 (zh) * | 2018-08-07 | 2020-02-13 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
US11966583B2 (en) | 2018-08-28 | 2024-04-23 | Cambricon Technologies Corporation Limited | Data pre-processing method and device, and related computer device and storage medium |
CN110929837B (zh) * | 2018-09-19 | 2024-05-10 | 北京搜狗科技发展有限公司 | 一种联想词预测方法及装置 |
CN110929837A (zh) * | 2018-09-19 | 2020-03-27 | 北京搜狗科技发展有限公司 | 神经网络模型压缩方法及装置 |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
CN111126558B (zh) * | 2018-10-31 | 2024-04-02 | 嘉楠明芯(北京)科技有限公司 | 一种卷积神经网络计算加速方法及装置、设备、介质 |
CN111126558A (zh) * | 2018-10-31 | 2020-05-08 | 北京嘉楠捷思信息技术有限公司 | 一种卷积神经网络计算加速方法及装置、设备、介质 |
CN111191783B (zh) * | 2018-11-15 | 2024-04-05 | 嘉楠明芯(北京)科技有限公司 | 一种自适应量化方法及装置、设备、介质 |
CN111191783A (zh) * | 2018-11-15 | 2020-05-22 | 北京嘉楠捷思信息技术有限公司 | 一种自适应量化方法及装置、设备、介质 |
CN111353517B (zh) * | 2018-12-24 | 2023-09-26 | 杭州海康威视数字技术股份有限公司 | 一种车牌识别方法、装置及电子设备 |
CN111353517A (zh) * | 2018-12-24 | 2020-06-30 | 杭州海康威视数字技术股份有限公司 | 一种车牌识别方法、装置及电子设备 |
WO2020134547A1 (zh) * | 2018-12-27 | 2020-07-02 | 深圳云天励飞技术有限公司 | 数据的定点化加速方法、装置、电子设备及存储介质 |
CN109697083A (zh) * | 2018-12-27 | 2019-04-30 | 深圳云天励飞技术有限公司 | 数据的定点化加速方法、装置、电子设备及存储介质 |
US11544059B2 (en) | 2018-12-28 | 2023-01-03 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Signal processing device, signal processing method and related products |
WO2020135601A1 (zh) * | 2018-12-29 | 2020-07-02 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、车载运算平台、电子设备及系统 |
CN111695671B (zh) * | 2019-03-12 | 2023-08-08 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
CN111695671A (zh) * | 2019-03-12 | 2020-09-22 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
US11934940B2 (en) | 2019-04-18 | 2024-03-19 | Cambricon Technologies Corporation Limited | AI processor simulation |
US11847554B2 (en) | 2019-04-18 | 2023-12-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11762690B2 (en) | 2019-04-18 | 2023-09-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
CN110135568A (zh) * | 2019-05-28 | 2019-08-16 | 赵恒锐 | 一种应用有界线性整流单元的全整数神经网络系统 |
CN112085193B (zh) * | 2019-06-12 | 2024-03-29 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
CN112085193A (zh) * | 2019-06-12 | 2020-12-15 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
US11675676B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11676029B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
WO2020248424A1 (zh) * | 2019-06-12 | 2020-12-17 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
CN110309877A (zh) * | 2019-06-28 | 2019-10-08 | 北京百度网讯科技有限公司 | 一种特征图数据的量化方法、装置、电子设备及存储介质 |
CN110298438A (zh) * | 2019-07-05 | 2019-10-01 | 北京中星微电子有限公司 | 神经网络模型的调整方法和调整装置 |
CN110298438B (zh) * | 2019-07-05 | 2024-04-26 | 北京中星微电子有限公司 | 神经网络模型的调整方法和调整装置 |
WO2021044244A1 (en) * | 2019-09-03 | 2021-03-11 | International Business Machines Corporation | Machine learning hardware having reduced precision parameter components for efficient parameter update |
GB2600871A (en) * | 2019-09-03 | 2022-05-11 | Ibm | Machine learning hardware having reduced precision parameter components for efficient parameter update |
CN111461302B (zh) * | 2020-03-30 | 2024-04-19 | 嘉楠明芯(北京)科技有限公司 | 一种基于卷积神经网络的数据处理方法、设备及存储介质 |
CN111461302A (zh) * | 2020-03-30 | 2020-07-28 | 杭州嘉楠耘智信息科技有限公司 | 一种基于卷积神经网络的数据处理方法、设备及存储介质 |
CN111985495A (zh) * | 2020-07-09 | 2020-11-24 | 珠海亿智电子科技有限公司 | 模型部署方法、装置、系统及存储介质 |
CN111985495B (zh) * | 2020-07-09 | 2024-02-02 | 珠海亿智电子科技有限公司 | 模型部署方法、装置、系统及存储介质 |
CN113255901A (zh) * | 2021-07-06 | 2021-08-13 | 上海齐感电子信息科技有限公司 | 实时量化方法及实时量化系统 |
CN113593538A (zh) * | 2021-09-02 | 2021-11-02 | 北京声智科技有限公司 | 语音特征的分类方法、相关设备及可读存储介质 |
CN113593538B (zh) * | 2021-09-02 | 2024-05-03 | 北京声智科技有限公司 | 语音特征的分类方法、相关设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019120114A1 (zh) | 2019-06-27 |
CN108053028B (zh) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108053028A (zh) | 数据定点化处理方法、装置、电子设备及计算机存储介质 | |
CN110378468B (zh) | 一种基于结构化剪枝和低比特量化的神经网络加速器 | |
CN109934331B (zh) | 用于执行人工神经网络正向运算的装置和方法 | |
CN109543830B (zh) | 一种用于卷积神经网络加速器的拆分累加器 | |
CN107340993B (zh) | 运算装置和方法 | |
CN107818367B (zh) | 用于神经网络的处理系统和处理方法 | |
CN109871871B (zh) | 基于光学神经网络结构的图像识别方法、装置及电子设备 | |
CN106780512A (zh) | 分割图像的方法、应用及计算设备 | |
CN106570559A (zh) | 一种基于神经网络的数据处理方法和装置 | |
CN106709565A (zh) | 一种神经网络的优化方法及装置 | |
CN111985597B (zh) | 模型压缩方法及装置 | |
CN110457758A (zh) | 岩体失稳阶段的预测方法、装置、系统以及存储介质 | |
CN109325590A (zh) | 用于实现计算精度可变的神经网络处理器的装置 | |
CN107622305A (zh) | 用于神经网络的处理器和处理方法 | |
CN107292458A (zh) | 一种应用于神经网络芯片的预测方法和预测装置 | |
CN106855952A (zh) | 基于神经网络的计算方法及装置 | |
CN107832794A (zh) | 一种卷积神经网络生成方法、车系识别方法及计算设备 | |
CN114781650B (zh) | 一种数据处理方法、装置、设备以及存储介质 | |
CN112508190A (zh) | 结构化稀疏参数的处理方法、装置、设备及存储介质 | |
CN108304925A (zh) | 一种池化计算装置及方法 | |
CN109190759A (zh) | 一种基于{-1,+1}编码的神经网络模型压缩与加速方法 | |
CN110070119B (zh) | 一种基于二值化深度神经网络的手写数字图像识别分类方法 | |
CN111984414B (zh) | 一种数据处理的方法、系统、设备及可读存储介质 | |
CN113435128A (zh) | 基于条件生成式对抗网络的油气藏产量预测方法及装置 | |
CN108804933A (zh) | 一种用于大数据的进制转换方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20181210 Address after: Room D24, Pilot Youth Community, 2nd Floor, Peihong Building, Nanshan Street Science Park, Nanshan District, Shenzhen City, Guangdong Province Applicant after: Shenzhen Li Fei Technology Co., Ltd. Address before: 518000 Shenzhen Science Museum, 1003 Shangbuzhong Road, Futian District, Shenzhen City, Guangdong Province, 7th Floor Applicant before: The skies, Shenzhen Li Fei Technology Co., Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |