CN113361677A - 神经网络模型的量化方法和装置 - Google Patents

神经网络模型的量化方法和装置 Download PDF

Info

Publication number
CN113361677A
CN113361677A CN202010143782.XA CN202010143782A CN113361677A CN 113361677 A CN113361677 A CN 113361677A CN 202010143782 A CN202010143782 A CN 202010143782A CN 113361677 A CN113361677 A CN 113361677A
Authority
CN
China
Prior art keywords
bit width
quantized
quantization
model
quasi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010143782.XA
Other languages
English (en)
Other versions
CN113361677B (zh
Inventor
希滕
张刚
温圣召
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Inspur Smart Building Technology Co ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010143782.XA priority Critical patent/CN113361677B/zh
Publication of CN113361677A publication Critical patent/CN113361677A/zh
Application granted granted Critical
Publication of CN113361677B publication Critical patent/CN113361677B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本公开涉及人工智能领域。本公开的实施例公开了神经网络模型的量化方法和装置。该方法包括:获取神经网络模型的参数的初始位宽以及目标量化位宽;构建量化位宽序列,通过执行多次拟量化操作更新量化位宽序列;按照更新后的量化位宽序列对神经网络模型进行逐级量化;拟量化操作包括:获取起点位宽对应的第一量化后模型、采用中间位宽对待量化模型进行量化得到的第二量化后模型;响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将中间位宽插入量化位宽序列中,将中间位宽更新为新的起点位宽,将第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。该方法可以减少模型的量化损失。

Description

神经网络模型的量化方法和装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及人工智能技术领域,尤其涉及神经网络模型的量化方法和装置。
背景技术
神经网络的模型的量化是将高位宽的模型参数转换为低位宽的模型参数,以此提升模型的计算速度。通常在高位宽的神经网络模型训练完成之后进行量化。深度神经元网络中,模型各层之间有非常强的依赖关系,各层的参数分布的改变对神经网络模型的性能具有很大的影响。如果量化后的低位宽模型的参数分布与高位宽的模型的参数分布的差异过大,量化后的神经网络模型的精度损失会很严重,甚至产生精度过低而无法满足业务需求的情况。
发明内容
本公开的实施例提出了神经网络模型的量化方法和装置、电子设备和计算机可读介质。
第一方面,本公开的实施例提供了一种神经网络模型的量化方法,包括:获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽;将初始位宽和作为初始的起点位宽、神经网络模型作为初始的待量化模型,构建包含初始位宽和目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新量化位宽序列;按照更新后的量化位宽序列对神经网络模型进行逐级量化;其中,拟量化操作包括:获取起点位宽对应的第一量化后模型、以及采用中间位宽对待量化模型进行量化得到的第二量化后模型,其中,中间位宽位于起始点位宽和目标量化位宽之间;响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将中间位宽插入量化位宽序列中,并将中间位宽更新为新的起点位宽,以及将第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
在一些实施例中,上述拟量化操作还包括:响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异不在预设的分布差异区间内,将位于起点位宽与中间位宽之间的候选位宽更新为新的中间位宽,执行下一次拟量化操作。
在一些实施例中,上述候选位宽是对应拟量化操作中的起点位宽与中间位宽的中位数。
在一些实施例中,上述拟量化操作还包括:响应于确定起点位宽与目标量化位宽之间的差异不大于1,停止执行拟量化操作。
在一些实施例中,上述拟量化操作还包括:响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,基于目标量化位宽对第二量化后模型进行量化,得到第三量化后模型;判断第二量化后模型的参数分布与第三量化后模型的参数分布之间的差异是否在预设的分布差异区间内。若是,停止执行拟量化操作。
在一些实施例中,上述中间位宽是对应的拟量化操作中的起始点位宽和目标量化位宽的中位数。
在一些实施例中,上述方法还包括:基于逐级量化后的神经网络模型对媒体数据进行处理。
第二方面,本公开的实施例提供了一种神经网络模型的量化装置,包括:获取单元,被配置为获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽;更新单元,被配置为将初始位宽和作为初始的起点位宽、神经网络模型作为初始的待量化模型,构建包含初始位宽和目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新量化位宽序列;量化单元,被配置为按照更新后的量化位宽序列对神经网络模型进行逐级量化;其中,更新单元按照如下方式执行拟量化操作:获取起点位宽对应的第一量化后模型、以及采用中间位宽对待量化模型进行量化得到的第二量化后模型,其中,中间位宽位于起始点位宽和目标量化位宽之间;响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将中间位宽插入量化位宽序列中,并将中间位宽更新为新的起点位宽,以及将第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
在一些实施例中,上述更新单元执行的拟量化操作还包括:响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异不在预设的分布差异区间内,将位于起点位宽与中间位宽之间的候选位宽更新为新的中间位宽,执行下一次拟量化操作。
在一些实施例中,上述候选位宽是对应拟量化操作中的起点位宽与中间位宽的中位数。
在一些实施例中,上述更新单元执行的拟量化操作还包括:响应于确定起点位宽与目标量化位宽之间的差异不大于1,停止执行拟量化操作。
在一些实施例中,上述更新单元执行的拟量化操作还包括:响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,基于目标量化位宽对第二量化后模型进行量化,得到第三量化后模型;判断第二量化后模型的参数分布与第三量化后模型的参数分布之间的差异是否在预设的分布差异区间内。若是,停止执行拟量化操作。
在一些实施例中,上述中间位宽是对应的拟量化操作中的起始点位宽和目标量化位宽的中位数。
在一些实施例中,上述装置还包括:处理单元,被配置为基于逐级量化后的神经网络模型对媒体数据进行处理。
第三方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面提供的神经网络模型的量化方法。
第四方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现第一方面提供的神经网络模型的量化方法。
本公开的上述实施例的神经网络模型的量化方法和装置,通过获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽,将初始位宽和作为初始的起点位宽、神经网络模型作为初始的待量化模型,构建包含初始位宽和目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新量化位宽序列,按照更新后的量化位宽序列对神经网络模型进行逐级量化,其中,拟量化操作包括:获取基于起点位宽对待量化模型进行量化得到的第一量化后模型,以及采用中间位宽对神经网络模型进行量化得到的第二量化后模型,其中,中间位宽位于起始点位宽和目标量化位宽之间,响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将中间位宽插入量化位宽序列中,并将中间位宽更新为新的起点位宽,以及将第二量化后模型更新为新的待量化模型,执行下一次拟量化操作,实现了在保证模型量化速度的同时,减少模型的量化精度损失。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的神经网络模型的量化方法的一个实施例的流程图;
图3是根据本公开的神经网络模型的量化方法的另一个实施例的流程图;
图4是本公开的神经网络模型的量化装置的一个实施例的结构示意图;
图5是适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的神经网络模型的量化方法或神经网络模型的量化装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是用户端设备,其上可以安装有各种客户端应用。例如,图像处理类应用、信息分析类应用、语音助手类应用、购物类应用、金融类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是运行各种服务的服务器,例如运行基于图像、视频、语音、文本、数字信号等数据的目标检测与识别、文本或语音识别、信号转换等服务的服务器。服务器105可以从终端设备101、102、103获取深度学习任务数据、或者从数据库获取深度学习任务数据来构建训练样本,对用于执行深度学习任务的神经网络模型进行训练。
服务器105还可以是为终端设备101、102、103上安装的应用提供后端支持的后端服务器。例如,服务器105可以接收终端设备101、102、103发送的待处理的数据,使用神经网络模型对数据进行处理,并将处理结果返回至终端设备101、102、103。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
经过训练的神经网络模型可以被部署并运行在终端设备101、102、103上。终端设备101、102、103对模型的运行速度通常有较为严格的要求。在本申请实施例的场景中,服务器105可以根据终端设备101、102、103的硬件或软件约束条件(诸如处理器的延时、功耗、应用程序运行环境下的运算效率等)确定神经网络模型的逐级量化策略,然后可以由服务器105或终端设备101、102、103按照服务器105确定出的逐级量化策略对高位宽的神经网络模型进行量化。
或者,在一些场景中,终端设备101、102、103也可以搜索出逐级量化策略,并基于搜索出的逐级量化策略对高位宽的神经网络模型进行量化。
本公开的实施例所提供的神经网络模型的量化方法可以由终端设备101、102、103或服务器105执行,相应地,神经网络模型的量化装置可以设置于终端设备101、102、103或服务器105中。
在一些场景中,终端设备101、102、103或服务器105可以在本地读取或从数据库等获取模型量化所需的源数据,例如在本地读取经过训练的高位宽神经网络模型。这时,示例性系统架构100可以不包括网络104和服务器105,或者不包括终端设备101、102、103和网络104。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本公开的神经网络模型的量化方法的一个实施例的流程200。该神经网络模型的量化方法,包括以下步骤:
步骤201,获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽。
在本实施例中,可以首先获取神经网络模型的参数的初始位宽,以及目标量化位宽,初始位宽高于目标量化位宽。
初始位宽是量化前神经网络模型的参数的位宽。在这里,神经网络模型可以是预先经过训练的。初始位宽表示神经网络模型的每个参数所占用的比特数,位宽越高,神经网络模型的参数的精度越高。
在实践中,神经网络模型可以是在服务器端训练的,其位宽较高。服务器端运算资源较充足,可以支持高位宽的神经网络模型训练过程中的大量运算。在训练完成后,可以在服务器端量化为低位宽的神经网络模型,或者可以将高位宽的神经网络模型发送至终端设备,由终端设备执行模型量化操作。
目标量化位宽表示神经网络模型经过量化后,每个参数所占用的位宽。在实践中,目标量化位宽可以是指定的位宽,例如可以指定将神经网络模型量化为int8(8位整型)类型的模型。进一步地,还可以根据运行量化后的神经网络模型的硬件的约束条件来确定目标量化位宽。例如一些应用于终端设备的芯片支持int8类型的数据,则针对该终端设备上运行的神经网络模型,可以设置目标量化位宽为8。
步骤202,将初始位宽和作为初始的起点位宽、神经网络模型作为初始的待量化模型,构建包含初始位宽和目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新量化位宽序列。
可以将初始位宽作为量化位宽序列中的首元素,目标位宽作为量化位宽序列中的末尾元素。通过多次拟量化操作在量化位宽序列中逐一添加位置与初始位宽和目标位宽之间的量化位宽,形成降序排列的量化位宽序列。
具体地,上述拟量化操作包括步骤2021和步骤2022:
步骤2021,获取起点位宽对应的第一量化后模型、以及采用中间位宽对待量化模型进行量化得到的第二量化后模型。
其中,中间位宽位于起始点位宽和目标量化位宽之间。
在第一次拟量化操作中,选择位于初始位宽和目标量化位宽之间的一个中间数作为中间位宽。将初始位宽的神经网络模型作为第一次拟量化操作中的第一量化后模型,采用中间位宽对初始的待量化模型能得到第一次拟量化操作的第二量化后模型。
在第二次及之后的拟量化操作中,选择位于当前的起点位宽和目标位宽之间的中间数作为对应的中间位宽,并获取上一次拟量化操作中基于当前的起点位宽(上一次拟量化操作的起点位宽或上一次拟量化操作的中间位宽)量化后的模型作为对应的第一量化后模型,利用当前的中间位宽对上一次拟量化操作后更新的待量化模型进行量化得到第二量化后模型。
可选地,中间位宽是对应的拟量化操作中的起始点位宽和目标量化位宽的中位数。即在每一次拟量化操作中,选择起始点位宽和目标量化位宽的中位数来判断该中位数是否满足量化需求。即通过二分的方式逐步找出合适的量化位宽序列,这样有利于加快量化位宽序列的更新,从而提升模型量化速度。
步骤2022,响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将中间位宽插入量化位宽序列中,并将中间位宽更新为新的起点位宽,以及将第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
在每次拟量化操作中获得对应的第一量化后模型和第二量化后模型之后,可以通过统计的方法,或者采用拟合的方式获得第一量化后模型的参数分布和第二量化后模型的参数分布。然后计算第一量化后模型的参数分布和第二量化后模型的参数分布之间的差异度,例如可以计算两个参数分布的相似度的倒数作为二者的差异度。然后判断该差异度是否查过预设的分布差异区间。该预设的分布差异区间可以是一个边界值较小的数值范围,例如差异度不超过0.1的范围。若二者的差异度在预设的分布差异区间内,则可以将当前拟量化操作中的中间位宽添加至上述量化位宽序列中,在量化位宽序列中将所有位宽按照降序排序。并且将当前拟量化操作中的中间位宽更新为新的起点位宽,将当前拟量化操作中的第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
可选地,上述参数分布之间的差异可以采用两个参数分布之间的距离表征,例如可以计算二者的KL距离(Kullback-Leibler divergence),当KL距离在预设的距离范围内时,两个参数分布之间的差异位于预设的分布差异区间内,否则可以确定两个参数分布之间的差异超过了预设的分布差异区间。
在将fp32(32位单精度浮点数)的神经网络模型量化为int8类型的神经网络模型的示例中,初始位宽为32,目标量化位宽为8。首先构建包含32和8的量化位宽序列。在第一次拟量化操作中,选择初始位宽32与目标量化位宽8的中间数20作为中间位宽。将初始的神经网络模型量化为fp20(20位浮点数)的神经网络模型。然后判断初始的fp32神经网络模型与基于中间位宽量化后的fp20神经网络模型的参数分布之间的差异是否在预设的分布差异区间内,若是,则将20插入量化位宽序列中,并将20更新为下一次拟量化操作的起点位宽。
在第二次拟量化操作中,获取第一次拟量化操作中得到的fp20神经网络模型,将20作为新的起点位宽,选择新的起点位宽20与目标量化位宽8之间的中间数14作为对应的中间位宽,将fp20神经网络模型量化为fp14(14位浮点数)神经网络模型,然后判断fp20神经网络模型与基于中间位宽量化后的fp14神经网络模型的参数分布之间的差异是否在预设的分布差异区间内,若是,则将14也插入至量化位宽序列中,并将14更新为下一次拟量化操作的起始点位宽,继续执行下一次拟量化操作。
这样,通过多次拟量化操作,可以逐步更新量化位宽序列,新添加至量化位宽序列中的量化位宽逐步逼近目标量化位宽。
可选地,在拟量化操作中添加至量化位宽序列中的位宽与目标量化位宽之间的差值到达1时,可以停止更新量化位宽序列。即响应于确定起点位宽与目标量化位宽之间的差异不大于1,停止执行拟量化操作。
可选地,在拟量化操作中,若确定基于中间位宽量化后的第二量化后模型与第一量化后模型非参数分布之间的差异在预设的分布差异区间内,可以进一步基于目标量化位宽对第二量化后模型进行量化,得到第三量化后模型,并判断第二量化后模型的参数分布与第三量化后模型的参数分布之间的差异是否在预设的分布差异区间内。若是,则可以停止执行拟量化操作。
这样,如果确定基于当前的中间位宽量化后的第二量化后模型与基于量化位宽序列中的上一个量化位宽量化后的第一量化后模型的参数分布之间的差异落入预设的分布差异区间内,并且基于当前的中间位宽量化后的第二量化后模型与基于目标量化位宽对基于当前的中间位宽量化后的模型再量化得到的第三量化后模型的参数分布之间的差异也落入预设的分布差异区间内,则可以在将当前的中间位宽加入量化位宽序列后停止进行拟量化操作,获得完整的量化位宽序列。这样可以保证基于量化位宽序列逐级量化后模型的参数分布不会发生过大的改变,无需再对当前的中间位宽与目标位宽之间的其他位宽进行逐级判断,可以加速完成量化位宽序列的更新,从而提升模型的量化速度。
步骤203,按照更新后的量化位宽序列对神经网络模型进行逐级量化。
更新后的量化位宽序列包括降序排列的多个量化位宽。在一个具体的示例中,更新后的量化位宽序列为:32,20,18,14,10,9,8。则在对fp32的神经网络模型进行量化时,可以按照fp32→fp20→fp18→fp14→fp10→fp9→int8的顺序逐步将神经网络模型量化为int8类型的神经网络模型。
上述实施例的神经网络模型的量化方法,通过多次拟量化操作快速确定出可保持模型的参数分布的逐级量化策略对应的量化位宽序列,能够在保证量化速度的同时减小量化损失。相较于逐位降低位宽的方式,能够有效节省模型量化过程所消耗的计算资源。
继续参考图3,其示出了根据本公开的模型量化方法的另一个实施例的流程图。如图3所示,本实施例的模型量化方法的流程300,包括以下步骤:
步骤301,获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽。
步骤302,将初始位宽和作为初始的起点位宽、神经网络模型作为初始的待量化模型,构建包含初始位宽和目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新量化位宽序列。
步骤303,按照更新后的量化位宽序列对神经网络模型进行逐级量化。
其中,拟量化操作包括:
步骤3021,获取起点位宽对应的第一量化后模型、以及采用中间位宽对待量化模型进行量化得到的第二量化后模型,其中,中间位宽位于起始点位宽和目标量化位宽之间;
步骤3022,响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将中间位宽插入量化位宽序列中,并将中间位宽更新为新的起点位宽,以及将第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
步骤3023,响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异不在预设的分布差异区间内,将位于起点位宽与中间位宽之间的候选位宽更新为新的中间位宽,执行下一次拟量化操作。
从图3可以看出,本实施例与前述结合图2描述的实施例相比,增加了拟量化操作中的步骤3023。
具体地,在步骤3023中,若当前拟量化操作中的第一量化后模型的参数分布与第二量化后模型的参数分布的差异超过了预设的分布差异区间,则表明当前拟量化操作的中间位宽与起点位宽之间距离过远,需要在当前的中间位宽与起点位宽之间增加至少一级量化位宽,由起点位宽量化至增加的至少一级量化位宽之后,再量化至中间位宽。这时,可以选择位于起点位宽与中间位宽之间的候选位宽,作为新的中间位宽,执行下一次拟量化操作。
可选地,候选位宽是对应拟量化操作中的起点位宽与中间位宽的中位数。例如当确定当前的拟量化操作中的起点位宽20对应的第一量化后模型与当前的中间位宽14对应的第二量化后模型的参数分布的差异超过预设的分布差异范围时,可以选择20与14的中位数17作为下一次拟量化操作中的心的中间位宽。在下一次拟量化操作中判断起点位宽20对应的第一量化后模型与中间位宽17对应的第二量化后模型的参数分布之间的差异是否在预设的分布差异区间内。
由此,本实施例的神经网络模型的量化方法可以避免量化位宽序列中的相邻两级量化位宽量化后的模型的参数分布发生过大的改变,从而进一步提升量化后的模型的精度。
可选地,上述方法的流程200和流程300还可以包括:基于逐级量化后的神经网络模型对媒体数据进行处理。
媒体数据可以是图像、视频、文本、音频等用于传播信息、具有可展示或可输出特性的数据。由于针对媒体数据进行处理的神经网络模型的结构通常较为复杂,并且为了获得良好的处理效果,神经网络模型的深度较深。例如基于图像数据的分类任务涉及复杂的深度神经网络运算,而大量复杂的运算需要消耗较多的时间,高位宽的神经网络模型难以满足实时性需求。
神经网络模型经过量化之后,可以保持良好的模型精度。并且,其计算速度显著提升。将量化后的神经网路模型处理媒体数据,可以显著提升媒体数据的处理速度,从而提升媒体数据处理的实时性,使得该量化后的神经网络模型可以应用于实时性要求较高的场景,例如与用户实时交互的媒体数据相关的应用中。
请参考图4,作为对上述神经网络模型的量化方法的实现,本公开提供了一种神经网络模型的量化装置的一个实施例,该装置实施例与图2和图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的神经网络模型的量化装置400包括获取单元401、更新单元402和量化单元403。其中,获取单元401被配置为获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽;更新单元402被配置为将初始位宽和作为初始的起点位宽、神经网络模型作为初始的待量化模型,构建包含初始位宽和目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新量化位宽序列;量化单元403被配置为按照更新后的量化位宽序列对神经网络模型进行逐级量化;其中,更新单元402按照如下方式执行拟量化操作:获取起点位宽对应的第一量化后模型、以及采用中间位宽对待量化模型进行量化得到的第二量化后模型,其中,中间位宽位于起始点位宽和目标量化位宽之间;响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将中间位宽插入量化位宽序列中,并将中间位宽更新为新的起点位宽,以及将第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
在一些实施例中,上述更新单元402执行的拟量化操作还包括:响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异不在预设的分布差异区间内,将位于起点位宽与中间位宽之间的候选位宽更新为新的中间位宽,执行下一次拟量化操作。
在一些实施例中,上述候选位宽是对应拟量化操作中的起点位宽与中间位宽的中位数。
在一些实施例中,上述更新单元402执行的拟量化操作还包括:响应于确定起点位宽与目标量化位宽之间的差异不大于1,停止执行拟量化操作。
在一些实施例中,上述更新单元402执行的拟量化操作还包括:响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,基于目标量化位宽对第二量化后模型进行量化,得到第三量化后模型;判断第二量化后模型的参数分布与第三量化后模型的参数分布之间的差异是否在预设的分布差异区间内。若是,停止执行拟量化操作。
在一些实施例中,上述中间位宽是对应的拟量化操作中的起始点位宽和目标量化位宽的中位数。
在一些实施例中,上述装置400还包括:处理单元,被配置为基于逐级量化后的神经网络模型对媒体数据进行处理。
上述装置400中的初始化单元401和搜索单元402与参考图2和图3描述的方法中的步骤相对应。由此,上文针对神经网络模型的量化方法描述的操作、特征及所能达到的技术效果同样适用于装置400及其中包含的单元,在此不再赘述。
下面参考图5,其示出了适于用来实现本公开的实施例的电子设备(例如图1所示的服务器)500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图5中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所描述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽;将初始位宽和作为初始的起点位宽、神经网络模型作为初始的待量化模型,构建包含初始位宽和目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新量化位宽序列;按照更新后的量化位宽序列对神经网络模型进行逐级量化;其中,拟量化操作包括:获取起点位宽对应的第一量化后模型、以及采用中间位宽对待量化模型进行量化得到的第二量化后模型,其中,中间位宽位于起始点位宽和目标量化位宽之间;响应于确定第一量化后模型的参数分布与第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将中间位宽插入量化位宽序列中,并将中间位宽更新为新的起点位宽,以及将第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、更新单元和量化单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (16)

1.一种神经网络模型的量化方法,包括:
获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽;
将所述初始位宽和作为初始的起点位宽、所述神经网络模型作为初始的待量化模型,构建包含所述初始位宽和所述目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新所述量化位宽序列;
按照更新后的所述量化位宽序列对所述神经网络模型进行逐级量化;
其中,所述拟量化操作包括:
获取起点位宽对应的第一量化后模型、以及采用中间位宽对待量化模型进行量化得到的第二量化后模型,其中,所述中间位宽位于所述起始点位宽和目标量化位宽之间;
响应于确定所述第一量化后模型的参数分布与所述第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将所述中间位宽插入所述量化位宽序列中,并将所述中间位宽更新为新的起点位宽,以及将所述第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
2.根据权利要求1所述的方法,其中,所述拟量化操作还包括:
响应于确定所述第一量化后模型的参数分布与所述第二量化后模型的参数分布之间的差异不在预设的分布差异区间内,将位于所述起点位宽与所述中间位宽之间的候选位宽更新为新的中间位宽,执行下一次拟量化操作。
3.根据权利要求2所述的方法,其中,所述候选位宽是对应拟量化操作中的所述起点位宽与所述中间位宽的中位数。
4.根据权利要求1所述的方法,其中,所述拟量化操作还包括:
响应于确定所述起点位宽与所述目标量化位宽之间的差异不大于1,停止执行所述拟量化操作。
5.根据权利要求1所述的方法,其中,所述拟量化操作还包括:
响应于确定所述第一量化后模型的参数分布与所述第二量化后模型的参数分布之间的差异在预设的分布差异区间内,基于所述目标量化位宽对所述第二量化后模型进行量化,得到第三量化后模型;
判断所述第二量化后模型的参数分布与所述第三量化后模型的参数分布之间的差异是否在所述预设的分布差异区间内。若是,停止执行所述拟量化操作。
6.根据权利要求1所述的方法,其中,所述中间位宽是对应的拟量化操作中的所述起始点位宽和所述目标量化位宽的中位数。
7.根据权利要求1-6任一项所述的方法,其中,所述方法还包括:
基于逐级量化后的神经网络模型对媒体数据进行处理。
8.一种神经网络模型的量化装置,包括:
获取单元,被配置为获取神经网络模型的参数的初始位宽以及神经网络模型的目标量化位宽;
更新单元,被配置为将所述初始位宽和作为初始的起点位宽、所述神经网络模型作为初始的待量化模型,构建包含所述初始位宽和所述目标量化位宽的量化位宽序列,通过执行多次拟量化操作更新所述量化位宽序列;
量化单元,被配置为按照更新后的所述量化位宽序列对所述神经网络模型进行逐级量化;
其中,所述更新单元按照如下方式执行拟量化操作:
获取起点位宽对应的第一量化后模型、以及采用中间位宽对待量化模型进行量化得到的第二量化后模型,其中,所述中间位宽位于所述起始点位宽和目标量化位宽之间;
响应于确定所述第一量化后模型的参数分布与所述第二量化后模型的参数分布之间的差异在预设的分布差异区间内,将所述中间位宽插入所述量化位宽序列中,并将所述中间位宽更新为新的起点位宽,以及将所述第二量化后模型更新为新的待量化模型,执行下一次拟量化操作。
9.根据权利要求8所述的装置,其中,所述更新单元执行的拟量化操作还包括:
响应于确定所述第一量化后模型的参数分布与所述第二量化后模型的参数分布之间的差异不在预设的分布差异区间内,将位于所述起点位宽与所述中间位宽之间的候选位宽更新为新的中间位宽,执行下一次拟量化操作。
10.根据权利要求9所述的装置,其中,所述候选位宽是对应拟量化操作中的所述起点位宽与所述中间位宽的中位数。
11.根据权利要求8所述的装置,其中,所述更新单元执行的拟量化操作还包括:
响应于确定所述起点位宽与所述目标量化位宽之间的差异不大于1,停止执行所述拟量化操作。
12.根据权利要求8所述的装置,其中,所述更新单元执行的拟量化操作还包括:
响应于确定所述第一量化后模型的参数分布与所述第二量化后模型的参数分布之间的差异在预设的分布差异区间内,基于所述目标量化位宽对所述第二量化后模型进行量化,得到第三量化后模型;
判断所述第二量化后模型的参数分布与所述第三量化后模型的参数分布之间的差异是否在所述预设的分布差异区间内。若是,停止执行所述拟量化操作。
13.根据权利要求8所述的装置,其中,所述中间位宽是对应的拟量化操作中的所述起始点位宽和所述目标量化位宽的中位数。
14.根据权利要求8-13任一项所述的装置,其中,所述装置还包括:
处理单元,被配置为基于逐级量化后的神经网络模型对媒体数据进行处理。
15.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN202010143782.XA 2020-03-04 2020-03-04 神经网络模型的量化方法和装置 Active CN113361677B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010143782.XA CN113361677B (zh) 2020-03-04 2020-03-04 神经网络模型的量化方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010143782.XA CN113361677B (zh) 2020-03-04 2020-03-04 神经网络模型的量化方法和装置

Publications (2)

Publication Number Publication Date
CN113361677A true CN113361677A (zh) 2021-09-07
CN113361677B CN113361677B (zh) 2024-08-02

Family

ID=77523485

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010143782.XA Active CN113361677B (zh) 2020-03-04 2020-03-04 神经网络模型的量化方法和装置

Country Status (1)

Country Link
CN (1) CN113361677B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117217302A (zh) * 2023-09-11 2023-12-12 上海交通大学 基于动态规划的多目标混合精度量化搜索方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190050710A1 (en) * 2017-08-14 2019-02-14 Midea Group Co., Ltd. Adaptive bit-width reduction for neural networks
WO2019212878A1 (en) * 2018-05-04 2019-11-07 Microsoft Technology Licensing, Llc Design flow for quantized neural networks
CN110852421A (zh) * 2019-11-11 2020-02-28 北京百度网讯科技有限公司 模型生成方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190050710A1 (en) * 2017-08-14 2019-02-14 Midea Group Co., Ltd. Adaptive bit-width reduction for neural networks
WO2019212878A1 (en) * 2018-05-04 2019-11-07 Microsoft Technology Licensing, Llc Design flow for quantized neural networks
CN110852421A (zh) * 2019-11-11 2020-02-28 北京百度网讯科技有限公司 模型生成方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蔡瑞初;钟椿荣;余洋;陈炳丰;卢冶;陈瑶;: "面向"边缘"应用的卷积神经网络量化与压缩方法", 计算机应用, no. 09 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117217302A (zh) * 2023-09-11 2023-12-12 上海交通大学 基于动态规划的多目标混合精度量化搜索方法及系统
CN117217302B (zh) * 2023-09-11 2024-06-07 上海交通大学 基于动态规划的多目标混合精度量化搜索方法及系统

Also Published As

Publication number Publication date
CN113361677B (zh) 2024-08-02

Similar Documents

Publication Publication Date Title
CN111523640B (zh) 神经网络模型的训练方法和装置
CN110807515A (zh) 模型生成方法和装置
CN110413812B (zh) 神经网络模型的训练方法、装置、电子设备及存储介质
CN111340220B (zh) 用于训练预测模型的方法和装置
CN109829164B (zh) 用于生成文本的方法和装置
CN109165736B (zh) 应用于卷积神经网络的信息处理方法和装置
CN113505848B (zh) 模型训练方法和装置
CN111061881A (zh) 文本分类方法、设备及存储介质
CN110826706B (zh) 用于神经网络的数据处理方法和装置
CN111340221A (zh) 神经网络结构的采样方法和装置
CN110009101B (zh) 用于生成量化神经网络的方法和装置
CN112650841A (zh) 信息处理方法、装置和电子设备
CN109977905B (zh) 用于处理眼底图像的方法和装置
CN108268936B (zh) 用于存储卷积神经网络的方法和装置
CN112241761B (zh) 模型训练方法、装置和电子设备
CN111508478B (zh) 语音识别方法和装置
CN112308226A (zh) 神经网络模型的量化、用于输出信息的方法和装置
CN113395538A (zh) 音效渲染方法、装置、计算机可读介质和电子设备
CN113361677B (zh) 神经网络模型的量化方法和装置
CN111915689A (zh) 用于生成目标函数的方法、装置、电子设备和计算机可读介质
CN110335237B (zh) 用于生成模型的方法、装置和用于识别图像的方法、装置
CN111797263A (zh) 图像标签生成方法、装置、设备和计算机可读介质
CN111858916A (zh) 用于聚类句子的方法和装置
CN111754984B (zh) 文本选取的方法、装置、设备和计算机可读介质
CN113361678A (zh) 神经网络模型的训练方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20240627

Address after: Floor 17, Building 6, No. 1677 Xingyuan Street, Tangye Street, Licheng District, Jinan City, Shandong Province, 250100

Applicant after: Shandong Inspur Smart Building Technology Co.,Ltd.

Country or region after: China

Address before: 2 / F, baidu building, 10 Shangdi 10th Street, Haidian District, Beijing 100085

Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.

Country or region before: China

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant