CN113642710B - 一种网络模型的量化方法、装置、设备和存储介质 - Google Patents
一种网络模型的量化方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN113642710B CN113642710B CN202110937246.1A CN202110937246A CN113642710B CN 113642710 B CN113642710 B CN 113642710B CN 202110937246 A CN202110937246 A CN 202110937246A CN 113642710 B CN113642710 B CN 113642710B
- Authority
- CN
- China
- Prior art keywords
- network
- output
- model
- characteristic
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000003860 storage Methods 0.000 title claims abstract description 28
- 238000011002 quantification Methods 0.000 title description 3
- 238000013139 quantization Methods 0.000 claims abstract description 76
- 230000006870 function Effects 0.000 claims abstract description 26
- 238000005520 cutting process Methods 0.000 claims abstract description 18
- 238000009826 distribution Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 8
- 239000004973 liquid crystal related substance Substances 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 28
- 238000012549 training Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本公开提供了一种网络模型的量化方法、装置、设备和存储介质,涉及计算机技术领域,尤其涉及深度学习技术领域。具体实现方案为:采用裁剪参数对网络模型中网络层输出的特征点的特征值进行裁剪;对裁剪后的特征值进行量化;确定网络模型的损失函数,并根据网络模型的损失函数对网络模型中的网络参数和裁剪参数进行更新。本公开实施例能够降低网络模型的量化损失。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及深度学习技术领域,具体涉及一种网络模型的量化方法、装置、设备和存储介质。
背景技术
随着深度学习技术的飞速发展,人工神经网络等相关研究被推向高潮,其被应用于人工智能、计算机视觉、机器人控制等多个领域。
在网络模型中对于模型的训练一般需要复杂的过程和较长的时间,以保证训练的有效性和准确性。然而,神经网络的压缩问题成为深度学习领域的重要问题。
发明内容
本公开提供了一种用于网络模型的量化的方法、装置、设备和存储介质。
根据本公开的一方面,提供了一种网络模型的量化方法,包括:
采用裁剪参数对网络模型中网络层输出的特征点的特征值进行裁剪;
对裁剪后的特征值进行量化;
确定网络模型的损失函数,并根据网络模型的损失函数对网络模型中的网络参数和裁剪参数进行更新。
根据本公开的又一方面,提供了一种网络模型的量化装置,包括:
裁剪模块,用于采用裁剪参数对网络模型中网络层输出的特征点的特征值进行裁剪;
量化模块,用于对裁剪模块裁剪后的特征值进行量化;
更新模块,用于确定网络模型的损失函数,并根据网络模型的损失函数对网络模型中的网络参数和裁剪参数进行更新。
根据本公开的又一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开任意实施例所提供的网络模型的量化方法。
根据本公开的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行本公开任意实施例所提供的网络模型的量化方法。
根据本公开的又一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现本公开任意实施例所提供的网络模型的量化方法。
根据本公开的技术,能够降低网络模型的量化损失。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例提供的一种网络模型的量化方法的示意图;
图2是根据本公开实施例提供的一种神经网络的网络模型的示意图;
图3是根据本公开实施例提供的一种特征点的特征值的分布图;
图4是根据本公开实施例提供的另一种网络模型的量化方法的示意图;
图5是根据本公开实施例提供的一种网络模型的量化装置的示意图;
图6是用来实现本公开实施例的网络模型的量化方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
以下结合附图,对本公开实施例提供的该方案进行详细说明。
图1是根据本公开实施例提供的一种网络模型的量化方法的示意图,本公开实施例可适用于对网络模型进行处理的情况。该方法可由一种网络模型的量化装置来执行,该装置可采用硬件和/或软件的方式来实现,可配置于电子设备中。参考图1,该方法具体包括如下:
S110、采用裁剪参数对网络模型中网络层输出的特征点的特征值进行裁剪。
S120、对裁剪后的特征值进行量化。
S130、确定网络模型的损失函数,并根据网络模型的损失函数对网络模型中的网络参数和裁剪参数进行更新。
网络模型是指深度学习领域中的人工神经网络的训练模型,例如可以是卷积神经网络、循环神经网络、长短期记忆神经网络、小波神经网络等,本公开实施例对网络模型的网络结构不做具体限定。
示例性的,参照图2所示,本公开实施例提供了一种神经网络的网络模型。如图2所示,该网络模型可以包括输入层、隐含层和输出层三部分,其中隐含层可以包括多个网络层,上一网络层的输出作为下一网络层的输入(比如,图2中第i-1网络层的输出可以作为第i网络层的输入),以迭代方式对网络模型进行训练,本公开实施例中用于输出特征图(Feature map)的网络层可以为隐含层。特征图用于表征图像的特征(例如颜色特征、灰度特征等)。特征图对应于至少一个通道的特征矩阵,每个通道对应于图像的一种特征。特征点为特征矩阵中的元素。以8×8的特征矩阵为例,包括64个特征点。特征点的取值称为特征值,特征值可以为网络参数的表达式。
对特征值进行量化也即是对网络参数进行低精度(Low precision)处理,能够降低网络模型中的网络参数的精度,可以将高精度的网络参数转化成精度相对较低的低精度的网络参数。比如,可以将用32比特(binary digit,bit)表达的浮点数转化成用8bit、3bit甚至2bit等占用较少内存空间的形式进行存储。网络模型在训练过程中经常需要反复多次迭代,对网络模型中的网络参数进行量化,能够成倍的缩减网络模型的存储空间;在网络参数占用内存减小的情况下,可存放显存或者寄存器的数据也就增多了,所以量化还可以加快神经网络的运算速率。
特征矩阵的特征点中,可能会存在离群点。特征值在一定的范围内的特征点为正常点,超出该一定的范围内的特征点为离群点,离群点会导致量化损失。示例性的,参照图3所示,本公开实施例提供了一种特征点的特征值的分布图,该分布图为某神经网络模型中的部分特征点的特征值的分布直方图。如图3所示,横坐标表示特征值,纵坐标表示特征值出现的频率。可以看出,图3中特征值的分布极度不均匀,多数特征值密集分布在-20至20区间,也有少数点分布在其他区间,这些少数点中可能存在离群点,若对图3中的特征值进行均匀量化,就无法保证密集分布区间内的特征值的精度,而密集分布区间的特征值为核心数据,所以这种量化方式会带来较大的量化损失。
本公开实施例中,在量化之前可以采用裁剪参数对特征值进行裁剪,以减小离群点带来的量化损失。本公开实施例提供的网络模型的量化方法中的裁剪,可以适用于对分布趋势呈对称分布的特征值进行裁剪。示例性的,若特征值的分布趋势如图3所示,基本呈对称分布,用α表示裁剪参数,则具体裁剪方式可以为:对于正常特征点的特征值不作处理;对于特征值为负数的离群点,将其特征值更新为-α;对于特征值为正数的离群点,将其特征值更新为α。这样,在裁剪过后,特征值的区间范围缩小至[-α,α],则量化范围也就缩小至[-α,α],也即是量化精度可以在[-α,α]区间内均匀取值。那么,在同样的存储空间下,量化时能够满足的特征值的精度也就提高了,核心数据对应的特征值的精度也就能够得到保证。
神经网络模型的训练过程通过对网络模型中的网络参数进行迭代训练,在网络参数进行迭代训练的过程中,对网络模型的损失函数进行优化。本公开实施例在对网络模型的损失函数进行优化过程中,不仅调整网络参数,还调整裁剪参数,即,损失函数不仅对网络参数进行求导,还对裁剪参数进行求导。通过在损失函数优化过程中更新裁剪参数,能够确定出更优的裁剪参数。这样,可以确定出相对更合理的裁剪参数,从而可以使得裁剪参数更好的参与到量化过程中,进而可以更好的应用量化过程降低网络模型的存储空间占用,提高网络模型的处理速度。
本公开实施例在模型训练过程中,在对特征值进行量化之前,先采用裁剪参数对特征值进行裁剪,通过裁剪可以将量化范围缩小。这样,在同样的存储空间下,量化时能够满足的特征值的精度也就提高了,核心数据对应的特征值的精度也就能够得到保证。所以,本公开实施例提供的网络模型的量化方法,能够减小量化过程中离群点带来的量化损失。并且,本公开实施例中,根据损失函数对裁剪参数进行迭代训练,这样能够确定出相对更合理的裁剪参数,从而可以使得裁剪参数更好的参与到量化过程中,进而可以更好的应用量化过程降低网络模型的存储空间占用,提高网络模型的处理速度。
图4是根据本公开实施例提供的另一种网络模型的量化方法的示意图。本实施例是在上述实施例的基础上提出的一种可选方案。参见图4,本实施例提供的网络模型的量化方法包括:
S410、针对可量化的每一网络层,确定该网络层的裁剪参数的至少两个候选初始值。
S420、采用候选初始值对该网络层输出的特征点的特征值进行裁剪,且对裁剪后的特征值进行量化,得到候选初始值关联的模型量化输出。
S430、根据候选初始值关联的模型量化输出和模型原输出之间的差值,确定候选初始值的网络输出差异度量。
S440、根据候选初始值的网络输出差异度量,从候选初始值中选择该网络层的裁剪参数的目标初始值。
S450、采用裁剪参数对网络模型中网络层输出的特征点的特征值进行裁剪。
S460、对裁剪后的特征值进行量化。
S470、确定网络模型的损失函数,并根据网络模型的损失函数对网络模型中的网络参数和裁剪参数进行更新。
可量化的网络层也即是输出特征图的网络层(本公开实施例的以下描述中,若无明确说明,描述中所涉及到的网络层均为可量化的网络层),即图2中的隐含层。由于不同的网络层输出的特征图可以不同,则不同的网络层输出的特征值的分布范围可以不同。所以,可以理解的是,在本公开实施例中,采用裁剪参数对网络模型中网络层输出的特征点的特征值进行裁剪时,不同的网络层的裁剪参数可以不同。
网络模型的损失函数一般是基于整个网络模型的输出确定的,所以,本公开实施例中,模型原输出可以为,网络层未经过量化处理时网络模型的原始输出结果。模型量化输出可以为,网络模型中某网络层输出的特征值经过裁剪和量化两个处理过程后网络模型的输出结果。也即是,在本公开实施例中,模型原输出和模型量化输出可以为量化前后整个网络模型的输出结果,而不是某个量化层的输出结果。并且,在针对可量化的任一网络层确定裁剪参数的目标初始值的过程中,除该网络层之外的其他网络层可以为未经裁剪和量化的原网络层,这样可以避免在分析过程中其他网络层的裁剪或处理过程对整个模型输出的影响干扰到对目标初始值的选取,以便能选出更合理的目标初始值。
示例性的,以图2所示的网络模型为例,针对可量化的第i-1网络层,可以确定第i-1网络层的裁剪参数的至少两个候选初始值,至少两个候选初始值中包括候选初始值α1和其他候选初始值。以α1为例,可以采用α1对第i-1网络层输出的特征点的特征值进行裁剪,且对裁剪后的特征值进行量化,则图2中输出层的输出即为针对第i-1网络层而言,候选初始值α1关联的模型量化输出。在上述裁剪和量化过程中,除第i-1网络层之外的其他网络层,均为原始输出,未经裁剪和量化处理。
在分别确定出各个候选初始值参与到量化过程后的模型量化输出之后,可以分别确定出各个模型量化输出相对于模型原输出的改变量,即网络输出差异度量。可以看出,该网络输出差异度量可以表征对应的候选初始值参与到量化过程中,在降低特征值精度的同时,输出值相对于原始数据的改变量,改变量越小,表示对应的候选初始值参与到量化过程之后,对模型输出值的影响程度越小。所以,网络输出差异度量越小,候选初始值设置的越合理。基于此原则,可以将候选初始值中,对应的网络输出差异度量最小的确定为该网络层的裁剪参数的目标初始值。
为了进一步提升对裁剪参数的训练效率,以更高效的确定出更接近需求且更合理的裁剪参数的候选初始值。可选的,在一种可能的实现方式中,可以采用业务数据作为网络模型的输入,得到该网络层输出的特征点的特征值,然后从该网络层输出的特征点的特征值中选择最大特征值,并根据该最大特征值和候选系数,确定候选初始值。
在一种可能的实现方式中,候选系数可以根据预设步长和预设候选系数范围确定。预设候选系数范围可以为预先确定的参数区间,该参数区间的范围属于0至1之间。预设步长可以是预先确定的对预设候选系数范围中的参数取值的步长。示例性的,预设候选系数范围可以为(0.4,1),预设步长可以为0.01,则候选系数可以在(0.4,1)之间以0.01为步长进行选点。
在确定出候选系数之后,可以将该网络层输出的特征点的特征值中的最大特征值与候选系数之积确定为候选初始值。这样,确定出的候选初始值不会超过最大特征值的范围,也即是裁剪都是在原始特征值的范围内进行裁剪,从而能够高效的确定出合理的候选初始值。
网络层输出的特征点的特征值可以呈对称分布,这样裁剪可以对称裁剪。可选的,本公开实施例中的最大特征值可以为该网络层输出的特征点的特征值中绝对值最大的一个,由于预设候选系数为正数,则最大特征值与候选系数之积确定的候选初始值也为正数,这样可以便于数据的处理,从而提高网络模型的训练速率。
由于网络模型的训练过程是基于训练集的训练,训练集作为网络模型的输入,可以包括有大量图像。针对输入的每个图像而言,输入网络模型后均有输出特征图,也即是每个图像的输入均会得到输出的特征矩阵。所以,可选的,在一种可能的实现方式中,针对每一条业务数据,可以将候选初始值关联的模型量化输出和模型原输出之间差值的绝对值作为该条业务数据的网络输出差异,然后将各条业务数据的网络输出差异的平均值,作为候选初始值的网络输出差异度量。
业务数据为网络模型具体应用的业务场景中的数据。示例性的,若网络模型用于人脸识别场景,则业务数据可以为人脸图像;若网络模型用于车辆的异常检测场景,则业务数据可以为车辆图像。可以理解的是,本公开实施例中列举的业务数据仅作为示例,并不构成对业务数据的具体限定。
示例性的,若训练集中包括300条业务数据,则针对这300条业务数据,可以根据如下表达式确定出候选初始值的网络输出差异度量:
网络输出差异=Mean(abs(模型量化输出-模型原输出));
其中,abs()为求绝对值,也即是计算每条业务数据的候选初始值关联的模型量化输出和模型原输出之间差值的绝对值;Mean()为求平均值,也即是求这300条业务数据的网络输出差异的平均值。
业务数据作为训练集中的样本数据,可以作为网络模型的输入,且每条业务数据输入均有对应的输出特征矩阵。那么,对于每一条业务数据而言,每条业务数据输入网络模型后网络层输出的特征图均可以进行裁剪和量化处理。可选的,在一种可能的实现方式中,针对每一条业务数据,可以将该条业务数据作为网络模型的输入,得到该网络层输出的特征点的特征值,然后可以采用候选初始值对该网络层输出的特征点的特征值进行裁剪,且对裁剪后的特征值进行量化,得到该条业务数据的模型量化输出。
本公开实施例中,可以对裁剪参数进行训练。在训练过程中,为了提升对裁剪参数的训练效率,以更高效的确定出较优的裁剪参数,可以先确定至少两个候选初始值,然后确定每个候选初始值关联的网络输出差异度量,并根据网络输出差异度量确定裁剪参数。由于网络输出差异度量可以表征各个候选初始值参与到量化过程之后,对模型输出值的影响程度。所以,基于网络输出差异度量可以确定出较优的裁剪参数。进一步的,基于该较优的裁剪参数对特征值进行裁剪,可以在减小离群点带来的量化损失的基础上,保证原始数据不失真,从而可以更好的应用量化过程降低网络模型的存储空间占用,提高网络模型的处理速度。
图5根据本公开实施例提供的一种网络模型的量化装置的示意图,本实施例可适用于对网络模型进行处理的情况,该装置配置于电子设备中,可实现本公开任意实施例所述的网络模型的量化方法。参考图5,该网络模型的量化装置500具体包括如下:
裁剪模块501,用于采用裁剪参数对网络模型中网络层输出的特征点的特征值进行裁剪;
量化模块502,用于对裁剪模块501裁剪后的特征值进行量化;
更新模块503,用于确定网络模型的损失函数,并根据网络模型的损失函数对网络模型中的网络参数和裁剪参数进行更新。
在一种可选实施方式中,该网络模型的量化装置500还包括:
确定模块,用于针对可量化的每一网络层,确定该网络层的裁剪参数的至少两个候选初始值;
裁剪模块501,还用于采用候选初始值对该网络层输出的特征点的特征值进行裁剪,且量化模块502还用于对裁剪模块501裁剪后的特征值进行量化,得到候选初始值关联的模型量化输出;
确定模块,还用于根据候选初始值关联的模型量化输出和模型原输出之间的差值,确定候选初始值的网络输出差异度量;
选择模块,用于根据候选初始值的网络输出差异度量,从候选初始值中选择该网络层的裁剪参数的目标初始值。
在一种可选实施方式中,该网络模型的量化装置500中的确定模块包括:
输出差异单元,用于针对每一条业务数据,将候选初始值关联的模型量化输出和模型原输出之间差值的绝对值作为该条业务数据的网络输出差异;
平均值单元,用于将各条业务数据的网络输出差异的平均值,作为候选初始值的网络输出差异度量。
在一种可选实施方式中,输出差异单元包括:
特征值子单元,用于针对每一条业务数据,将该条业务数据作为网络模型的输入,得到该网络层输出的特征点的特征值;
裁剪子单元,用于采用候选初始值对该网络层输出的特征点的特征值进行裁剪,且量化子单元用于对裁剪子单元裁剪后的特征值进行量化,得到该条业务数据的模型量化输出;
业务输出子单元,用于将该条业务数据作为网络模型的输入,得到该条业务数据的模型原输出;
输出差异子单元,用于将该条业务数据的模型量化输出和模型原输出之间的差值的绝对值,作为该条业务数据的网络输出差异。
在一种可选实施方式中,确定模块包括:
特征值单元,用于采用业务数据作为网络模型的输入,得到该网络层输出的特征点的特征值;
选择单元,用于从该网络层输出的特征点的特征值中选择最大特征值;
确定单元,用于根据最大特征值和候选系数,确定候选初始值。
本公开实施例的技术方案,模型训练过程中,在对特征值进行量化之前,先采用裁剪参数对特征值进行裁剪,通过裁剪可以将量化范围缩小。这样,在同样的存储空间下,量化时能够满足的特征值的精度也就提高了,核心数据对应的特征值的精度也就能够得到保证。所以,本公开实施例提供的网络模型的量化方法,能够减小量化过程中离群点带来的量化损失。并且,本公开实施例中,根据损失函数对裁剪参数进行迭代训练,这样能够确定出相对更合理的裁剪参数,从而可以使得裁剪参数更好的参与到量化过程中,进而可以更好的应用量化过程降低网络模型的存储空间占用,提高网络模型的处理速度。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种执行机器学习模型算法的计算单元、数字信息处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如网络模型的量化方法。例如,在一些实施例中,网络模型的量化方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的网络模型的量化方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行网络模型的量化方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上执行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (10)
1.一种网络模型的量化方法,包括:
采用裁剪参数对网络模型中网络层输出的特征点分布趋势呈对称分布的特征值进行裁剪;其中,所述网络层作为隐含层,用于输出特征图,所述特征图用于表征图像特征,所述特征图对应于至少一个通道的特征矩阵,每个通道对应于图像的一种特征;
对裁剪后的特征值进行量化,以缩减所述网络模型的存储空间;
确定网络模型的损失函数,并根据网络模型的损失函数对网络模型中的网络参数和所述裁剪参数进行更新,其中,所述网络参数存储于内存中;
其中,所述采用裁剪参数对网络模型中网络层输出的特征点分布趋势呈对称分布的特征值进行裁剪之前,还包括:
针对可量化的每一网络层,确定该网络层的裁剪参数的至少两个候选初始值;
采用候选初始值对该网络层输出的特征点的特征值进行裁剪,且对裁剪后的特征值进行量化,得到候选初始值关联的模型量化输出;
根据候选初始值关联的模型量化输出和模型原输出之间的差值,确定所述候选初始值的网络输出差异度量;
根据所述候选初始值的网络输出差异度量,从所述候选初始值中选择该网络层的裁剪参数的目标初始值。
2.根据权利要求1所述的方法,其中,所述根据候选初始值关联的模型量化输出和模型原输出之间的差值,确定所述候选初始值的网络输出差异度量,包括:
针对每一条业务数据,将候选初始值关联的模型量化输出和模型原输出之间差值的绝对值作为该条业务数据的网络输出差异;
将各条业务数据的网络输出差异的平均值,作为所述候选初始值的网络输出差异度量。
3.根据权利要求2所述的方法,其中,所述针对每一条业务数据,将候选初始值关联的模型量化输出和模型原输出之间差值的绝对值作为该条业务数据的网络输出差异,包括:
针对每一条业务数据,将该条业务数据作为网络模型的输入,得到该网络层输出的特征点的特征值;
采用候选初始值对该网络层输出的特征点的特征值进行裁剪,且对裁剪后的特征值进行量化,得到该条业务数据的模型量化输出;
将该条业务数据作为网络模型的输入,得到该条业务数据的模型原输出;
将该条业务数据的模型量化输出和模型原输出之间的差值的绝对值,作为该条业务数据的网络输出差异。
4.根据权利要求1所述的方法,其中,确定该网络层的裁剪参数的至少两个候选初始值,包括:
采用业务数据作为网络模型的输入,得到该网络层输出的特征点的特征值;
从该网络层输出的特征点的特征值中选择最大特征值;
根据最大特征值和候选系数,确定候选初始值。
5.一种网络模型的量化装置,包括:
裁剪模块,用于采用裁剪参数对网络模型中网络层输出的特征点分布趋势呈对称分布的特征值进行裁剪;其中,所述网络层作为隐含层,用于输出特征图,所述特征图用于表征图像象征,所述特征图对应于一个通道的特征矩阵,每个通道对应于图像的一种特征;
量化模块,用于对所述裁剪模块裁剪后的特征值进行量化,以缩减所述网络模型的存储空间;
更新模块,用于确定网络模型的损失函数,并根据网络模型的损失函数对网络模型中的网络参数和所述裁剪参数进行更新,其中,所述网络参数存储于内存中;
其中,所述装置,还包括:
确定模块,用于针对可量化的每一网络层,确定该网络层的裁剪参数的至少两个候选初始值;
所述裁剪模块,还用于采用候选初始值对该网络层输出的特征点的特征值进行裁剪,且所述量化模块还用于对所述裁剪模块裁剪后的特征值进行量化,得到候选初始值关联的模型量化输出;
所述确定模块,还用于根据候选初始值关联的模型量化输出和模型原输出之间的差值,确定所述候选初始值的网络输出差异度量;
选择模块,用于根据所述候选初始值的网络输出差异度量,从所述候选初始值中选择该网络层的裁剪参数的目标初始值。
6.根据权利要求5所述的装置,所述确定模块包括:
输出差异单元,用于针对每一条业务数据,将候选初始值关联的模型量化输出和模型原输出之间差值的绝对值作为该条业务数据的网络输出差异;
平均值单元,用于将各条业务数据的网络输出差异的平均值,作为所述候选初始值的网络输出差异度量。
7.根据权利要求6所述的装置,所述输出差异单元包括:
特征值子单元,用于针对每一条业务数据,将该条业务数据作为网络模型的输入,得到该网络层输出的特征点的特征值;
裁剪子单元,用于采用候选初始值对该网络层输出的特征点的特征值进行裁剪,且量化子单元用于对所述裁剪子单元裁剪后的特征值进行量化,得到该条业务数据的模型量化输出;
业务输出子单元,用于将该条业务数据作为网络模型的输入,得到该条业务数据的模型原输出;
输出差异子单元,用于将该条业务数据的模型量化输出和模型原输出之间的差值的绝对值,作为该条业务数据的网络输出差异。
8.根据权利要求5所述的装置,所述确定模块包括:
特征值单元,用于采用业务数据作为网络模型的输入,得到该网络层输出的特征点的特征值;
选择单元,用于从该网络层输出的特征点的特征值中选择最大特征值;
确定单元,用于根据最大特征值和候选系数,确定候选初始值。
9. 一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110937246.1A CN113642710B (zh) | 2021-08-16 | 2021-08-16 | 一种网络模型的量化方法、装置、设备和存储介质 |
PCT/CN2022/112673 WO2023020456A1 (zh) | 2021-08-16 | 2022-08-16 | 网络模型的量化方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110937246.1A CN113642710B (zh) | 2021-08-16 | 2021-08-16 | 一种网络模型的量化方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113642710A CN113642710A (zh) | 2021-11-12 |
CN113642710B true CN113642710B (zh) | 2023-10-31 |
Family
ID=78421994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110937246.1A Active CN113642710B (zh) | 2021-08-16 | 2021-08-16 | 一种网络模型的量化方法、装置、设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113642710B (zh) |
WO (1) | WO2023020456A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642710B (zh) * | 2021-08-16 | 2023-10-31 | 北京百度网讯科技有限公司 | 一种网络模型的量化方法、装置、设备和存储介质 |
CN115083423B (zh) * | 2022-07-21 | 2022-11-15 | 中国科学院自动化研究所 | 语音鉴别的数据处理方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017020741A1 (zh) * | 2015-08-06 | 2017-02-09 | 阿里巴巴集团控股有限公司 | 图像检索、获取图像信息及图像识别方法、装置及系统 |
CN108229681A (zh) * | 2017-12-28 | 2018-06-29 | 郑州云海信息技术有限公司 | 一种神经网络模型压缩方法、系统、装置及可读存储介质 |
WO2019127362A1 (zh) * | 2017-12-29 | 2019-07-04 | 清华大学 | 神经网络模型分块压缩方法、训练方法、计算装置及系统 |
CN111275187A (zh) * | 2020-01-16 | 2020-06-12 | 北京智芯微电子科技有限公司 | 深度神经网络模型的压缩方法及装置 |
CN112381083A (zh) * | 2020-06-12 | 2021-02-19 | 杭州喔影网络科技有限公司 | 一种基于潜在区域对的显著性感知图像裁剪方法 |
CN112560881A (zh) * | 2019-09-25 | 2021-03-26 | 北京四维图新科技股份有限公司 | 对象识别方法和装置、数据处理方法 |
CN112861996A (zh) * | 2021-03-15 | 2021-05-28 | 北京智芯微电子科技有限公司 | 深度神经网络模型压缩方法及装置、电子设备、存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11475297B2 (en) * | 2019-08-28 | 2022-10-18 | International Business Machines Corporation | Cross-domain homophily quantification for transfer learning |
CN110659725B (zh) * | 2019-09-20 | 2023-03-31 | 字节跳动有限公司 | 神经网络模型的压缩与加速方法、数据处理方法及装置 |
CN110852439B (zh) * | 2019-11-20 | 2024-02-02 | 字节跳动有限公司 | 数据处理方法及装置、存储介质 |
CN113177634B (zh) * | 2021-04-28 | 2022-10-14 | 中国科学院自动化研究所 | 基于神经网络输入输出量化的图像分析系统、方法和设备 |
CN113642710B (zh) * | 2021-08-16 | 2023-10-31 | 北京百度网讯科技有限公司 | 一种网络模型的量化方法、装置、设备和存储介质 |
-
2021
- 2021-08-16 CN CN202110937246.1A patent/CN113642710B/zh active Active
-
2022
- 2022-08-16 WO PCT/CN2022/112673 patent/WO2023020456A1/zh unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017020741A1 (zh) * | 2015-08-06 | 2017-02-09 | 阿里巴巴集团控股有限公司 | 图像检索、获取图像信息及图像识别方法、装置及系统 |
CN108229681A (zh) * | 2017-12-28 | 2018-06-29 | 郑州云海信息技术有限公司 | 一种神经网络模型压缩方法、系统、装置及可读存储介质 |
WO2019127362A1 (zh) * | 2017-12-29 | 2019-07-04 | 清华大学 | 神经网络模型分块压缩方法、训练方法、计算装置及系统 |
CN112560881A (zh) * | 2019-09-25 | 2021-03-26 | 北京四维图新科技股份有限公司 | 对象识别方法和装置、数据处理方法 |
CN111275187A (zh) * | 2020-01-16 | 2020-06-12 | 北京智芯微电子科技有限公司 | 深度神经网络模型的压缩方法及装置 |
WO2021143070A1 (zh) * | 2020-01-16 | 2021-07-22 | 北京智芯微电子科技有限公司 | 深度神经网络模型的压缩方法、装置及存储介质 |
CN112381083A (zh) * | 2020-06-12 | 2021-02-19 | 杭州喔影网络科技有限公司 | 一种基于潜在区域对的显著性感知图像裁剪方法 |
CN112861996A (zh) * | 2021-03-15 | 2021-05-28 | 北京智芯微电子科技有限公司 | 深度神经网络模型压缩方法及装置、电子设备、存储介质 |
Non-Patent Citations (2)
Title |
---|
深度神经网络模型压缩综述;耿丽丽;牛保宁;;计算机科学与探索(第09期);全文 * |
面向"边缘"应用的卷积神经网络量化与压缩方法;蔡瑞初;钟椿荣;余洋;陈炳丰;卢冶;陈瑶;;计算机应用(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
WO2023020456A1 (zh) | 2023-02-23 |
CN113642710A (zh) | 2021-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113642710B (zh) | 一种网络模型的量化方法、装置、设备和存储介质 | |
CN112560996B (zh) | 用户画像识别模型训练方法、设备、可读存储介质及产品 | |
CN113642711B (zh) | 一种网络模型的处理方法、装置、设备和存储介质 | |
CN112580732B (zh) | 模型训练方法、装置、设备、存储介质和程序产品 | |
CN112528995B (zh) | 用于训练目标检测模型的方法、目标检测方法及装置 | |
CN112488060B (zh) | 目标检测方法、装置、设备和介质 | |
CN113962362A (zh) | 强化学习模型训练方法、决策方法、装置、设备及介质 | |
CN113657483A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN114494814A (zh) | 基于注意力的模型训练方法、装置及电子设备 | |
CN115759209B (zh) | 神经网络模型的量化方法、装置、电子设备及介质 | |
CN112560936A (zh) | 模型并行训练方法、装置、设备、存储介质和程序产品 | |
CN114730367A (zh) | 模型训练方法、装置、存储介质和程序产品 | |
CN116129101A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN113516185B (zh) | 模型训练的方法、装置、电子设备及存储介质 | |
CN113920404A (zh) | 训练方法、图像处理方法、装置、电子设备以及存储介质 | |
CN113361575B (zh) | 模型训练方法、装置和电子设备 | |
CN113657249B (zh) | 训练方法、预测方法、装置、电子设备以及存储介质 | |
CN115860077B (zh) | 状态数据的处理方法、装置、设备以及存储介质 | |
CN114596637B (zh) | 图像样本数据增强训练方法、装置及电子设备 | |
CN113963433B (zh) | 运动搜索方法、装置、电子设备及存储介质 | |
CN114037057B (zh) | 预训练模型的生成方法、装置、电子设备以及存储介质 | |
CN113705513B (zh) | 模型训练和车道线预测方法、电子设备和自动驾驶车辆 | |
CN116931083A (zh) | 一种方位角道集划分方案的确定方法 | |
CN116361658A (zh) | 模型训练方法、任务处理方法、装置、电子设备及介质 | |
CN116383659A (zh) | 用于机器学习特征工程的参数优化方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |