CN108509179A - 用于生成模型的方法和装置 - Google Patents

用于生成模型的方法和装置 Download PDF

Info

Publication number
CN108509179A
CN108509179A CN201810297441.0A CN201810297441A CN108509179A CN 108509179 A CN108509179 A CN 108509179A CN 201810297441 A CN201810297441 A CN 201810297441A CN 108509179 A CN108509179 A CN 108509179A
Authority
CN
China
Prior art keywords
weight
integer
destination layer
neural network
floating point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810297441.0A
Other languages
English (en)
Other versions
CN108509179B (zh
Inventor
姜志超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201810297441.0A priority Critical patent/CN108509179B/zh
Publication of CN108509179A publication Critical patent/CN108509179A/zh
Application granted granted Critical
Publication of CN108509179B publication Critical patent/CN108509179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/552Powers or roots, e.g. Pythagorean sums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本申请实施例公开了用于生成模型的方法和装置。该方法的一具体实施方式包括:获取目标多层神经网络模型,其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重;对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数。该实施方式提高了生成模型的灵活性,有助于提高模型的运算效率。

Description

用于生成模型的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于生成模型的方法和装置。
背景技术
多层神经网络(Multi-layer Perceptron,MLP)是一种前向结构的人工神经网络。其可以由多个层组成,每一层可以全连接到下一层。除了输入层,每个节点都可以是一个带有激活函数的神经元(或称处理单元)。
由于多层神经网络由相互叠加的多层组成,每一层又可以包括多个神经元。通常情况下,在使用多层神经网络进行计算的过程中,往往涉及较为复杂的计算。
发明内容
本申请实施例提出了用于生成模型的方法和装置。
第一方面,本申请实施例提供了一种用于生成模型的方法,该方法包括:获取目标多层神经网络模型,其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重;对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数;将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型。
在一些实施例中,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,包括:基于该目标层的浮点值形式的权重,利用交替方向乘子算法,确定该目标层的用数值表达式表征的权重。
在一些实施例中,基于该目标层的浮点值形式的权重,利用交替方向乘子算法,确定该目标层的用数值表达式表征的权重,包括:获取目标多层神经网络模型的损失函数、目标多层神经网络模型与待生成的多层神经网络模型之间的误差函数和正则项;将损失函数与正则项的和确定为目标函数;利用交替方向乘子算法,以目标函数的函数值取得最小值为目标,以误差函数的函数值小于预设阈值为约束条件,确定该目标层的用数值表达式表征的权重。
在一些实施例中,当数值表达式是包含分数与第一整数的乘积的表达式时,第一整数是通过如下步骤确定的:在预定分数集合中,确定与该目标层的浮点值形式的权重的值最接近的分数;利用最小二乘法,确定整数集合中的目标整数,使得目标整数与最接近的分数的乘积最接近该目标层的浮点值形式的权重的值;将目标整数确定为第一整数。
在一些实施例中,当数值表达式是包含幂与第二整数的乘积的表达式时,第二整数是通过如下步骤确定的:在预定幂集合中,确定与该目标层的浮点值形式的权重的值最接近的幂;利用最小二乘法,确定整数集合中的目标整数,使得目标整数与最接近的幂的乘积最接近该目标层的浮点值形式的权重的值;将目标整数确定为第二整数。
第二方面,本申请实施例提供了一种用于生成模型的装置,该装置包括:获取单元,配置用于获取目标多层神经网络模型,其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重;第一确定单元,配置用于对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数;第二确定单元,配置用于将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型。
在一些实施例中,第一确定单元包括:确定模块,配置用于基于该目标层的浮点值形式的权重,利用交替方向乘子算法,确定该目标层的用数值表达式表征的权重。
在一些实施例中,确定模块包括:获取子模块,配置用于获取目标多层神经网络模型的损失函数、目标多层神经网络模型与待生成的多层神经网络模型之间的误差函数和正则项;第一确定子模块,配置用于将损失函数与正则项的和确定为目标函数;第二确定子模块,配置用于利用交替方向乘子算法,以目标函数的函数值取得最小值为目标,以误差函数的函数值小于预设阈值为约束条件,确定该目标层的用数值表达式表征的权重。
在一些实施例中,当数值表达式是包含分数与第一整数的乘积的表达式时,第一整数是通过如下步骤确定的:在预定分数集合中,确定与该目标层的浮点值形式的权重的值最接近的分数;利用最小二乘法,确定整数集合中的目标整数,使得目标整数与最接近的分数的乘积最接近该目标层的浮点值形式的权重的值;将目标整数确定为第一整数。
在一些实施例中,当数值表达式是包含幂与第二整数的乘积的表达式时,第二整数是通过如下步骤确定的:在预定幂集合中,确定与该目标层的浮点值形式的权重的值最接近的幂;利用最小二乘法,确定整数集合中的目标整数,使得目标整数与最接近的幂的乘积最接近该目标层的浮点值形式的权重的值;将目标整数确定为第二整数。
第三方面,本申请实施例提供了一种用于检测人脸的方法,该方法包括:获取待检测图像;将待检测图像输入至多层神经网络模型,生成用于表征输入的图像是否包括人脸图像的检测结果,其中,多层神经网络模型是按照如上述用于生成模型的方法中任一实施例的方法生成的。
第四方面,本申请实施例提供了一种用于生成模型的服务器,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得该一个或多个处理器实现如上述用于生成模型的方法中任一实施例的方法。
第五方面,本申请实施例提供了一种用于生成模型的计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述用于生成模型的方法中任一实施例的方法。
本申请实施例提供的用于生成模型的方法和装置,通过获取目标多层神经网络模型,其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重,然后对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数,包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数,最后将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型,从而提高了生成模型的灵活性,有助于提高模型的运算效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于生成模型的方法的一个实施例的流程图;
图3是根据本申请的用于生成模型的方法的一个应用场景的示意图;
图4是根据本申请的用于生成模型的方法的又一个实施例的流程图;
图5是根据本申请的用于生成模型的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请实施例的用于生成模型的方法或用于生成模型的装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送信息(例如图像、图像处理请求)等。终端设备101、102、103上可以安装有各种客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、社交平台软件等通讯客户端应用或图像处理类客户端应用。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有摄像头和/或支持信息传输的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103发送的图像或图像处理请求等信息支持的后台信息处理服务器。后台信息处理服务器可以对接收到的图像或图像处理请求等数据进行分析等处理,并将处理结果(例如处理后的图像)反馈给终端设备。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
还需要说明的是,本申请实施例所提供的用于生成模型的方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,用于生成模型的装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。当信息处理方法运行于其上的电子设备不需要与其他电子设备进行数据传输时,该系统架构可以不包括网络。
继续参考图2,示出了根据本申请的用于生成模型的方法的一个实施例的流程200。该用于生成模型的方法,包括以下步骤:
步骤201,获取目标多层神经网络模型。
在本实施例中,用于生成模型的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从其他电子设备(例如存储有目标多层神经网络模型的电子设备)或者本地获取目标多层神经网络模型。其中,上述目标多层神经网络模型可以是包括浮点值形式的权重的层的多层神经网络模型。目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重。浮点值形式的权重可以是采用浮点值(例如0.00056、0.00007等)表征的权重。
实践中,多层神经网络通常可以包括输入层(input layer)、隐藏层(hiddenlayer)、输出层(output layer)等等。其中,隐藏层可以是卷积层(convolution layer)、池化层(pooling layer)、激活层(activation layers)、全连接层(dense layer)等等。上述目标层可以是以上任一层或者几层的组合。在多层神经网络中,每层通常可以对应一个权重。每一层的输出可以基于该层的输入与该层的权重之间的运算(例如卷机等)得到。在本实施例中,上述目标多层卷积神经网络模型的目标层的权重为浮点值。
步骤202,对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重。
在本实施例中,上述执行主体可以对于至少一个目标层中的每个目标层,基于步骤202得到的该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重。其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数。
示例性的,当目标层的浮点值形式的权重为0.0056,数值表达式是包含分数与第一整数的乘积的表达式,且分数的分母是256(实践中,也可以是其他整数)时,该步骤202可以如下执行:
首先,上述执行主体可以确定出第一整数(例如1,也可以是其他整数)。
然后,上述执行主体可以确定出哪个整数(即分数的分子),与上述第一整数的乘积,再将所得到的乘积作为被除数,将256(即分数的分母)作为除数,计算被除数与除数的商,使得所得到的商与目标层的浮点值形式的权重(即0.0056)最接近。由此。上述执行主体可以确定出分数的分子为1。
之后,上述执行主体可以确定该目标层(即)的用数值表达式表征的权重为
最后,上述执行主体可以使用用数值表达式表征的权重(即上述)替换该目标层的浮点值形式的权重(即上述0.0056)。
可以理解,当目标层的浮点值形式的权重为0.0056,数值表达式是包含幂与第二整数的乘积的表达式,且幂的底数是2(实践中,也可以是其他整数)时,该步骤202可以如下执行:
首先,上述执行主体可以确定出第二整数(例如1,也可以是其他整数)。
然后,上述执行主体可以确定出哪个整数(即幂的指数),与底数2组成的幂,与上述第二整数相乘得到的乘积,使得所得到的乘积与目标层的浮点值形式的权重(即0.0056)最接近。由此。上述执行主体可以确定出幂的指数为-8。
之后,上述执行主体可以确定该目标层的用数值表达式表征的权重为2-8×1。
最后,上述执行主体可以使用用数值表达式表征的权重(即上述2-8×1)替换该目标层的浮点值形式的权重(即上述0.0056)。
需要说明的是,通常情况下,相对于浮点值参与的运算,采用上述用数值表达式参与的运算具有较快的运算速度。因而,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重有助于提高运算效率。
在本实施例的一些可选的实现方式中,上述执行主体还可以基于该目标层的浮点值形式的权重,利用交替方向乘子算法(Alternating Direction Method ofMultipliers,ADMM),确定该目标层的用数值表达式表征的权重。
实践中,ADMM算法是一个旨在将对偶上升法的可分解性和乘子法的上界收敛属性融合在一起的算法。ADMM的交替,是指原始变量、分裂变量以及对偶变量(即拉格朗日系数,Lagrange coefficient)三种变量的交替更新。目标函数是基于增广拉格朗日函数的,也称Augmented Lagrangian function(ALF)。上述目标函数可以是在拉格朗日乘子法基础上再增加一个二次惩罚项。可以理解,增加二次惩罚项主要因为求解的问题需要满足如下前提:针对等于型等式约束或者小于等于型不等式约束,可以用二次惩罚项建模。由此可知,在收敛的时候,二次惩罚项中的值需要近似为0,或者比较小。
示例性的,当数值表达式是包含幂与第二整数的乘积的表达式时,上述利用交替方向乘子算法,确定该目标层的用数值表达式表征的权重的步骤可以如下执行:
首先,上述执行主体可以基于如下函数,进行迭代,以确定出上述数值表达式所包含的分数或幂:
Lρ(W,Gkk)=F(W)+0.5×ρ×||f(W)-f(Gk)+λk||2
Lρ(Wk+1,G,λk)=||f(G)-f(Wk+1)-λk||2
Wk+1=argminWLρ(W,Gkk)
Gk+1=argminGLρ(Wk+1,G,λk)
λk+1=λk+f(Wk+1)-f(Gk+1)
其中,Lρ(W,Gkk)是关于W、Gk、λk的函数的函数值。Lρ(Wk+1,G,λk)是关于Wk+1、G,、λk的函数的函数值。ρ是正则系数,ρ的取值通常可以在0.001至100之间,ρ的具体取值可以由技术人员根据目标多层神经网络模型训练的情况确定。W为该目标层(即需要将其浮点值形式的权重转换为用数值表达式表征的权重的目标层)的浮点值形式的权重。k为迭代的次数,k的取值为正整数。第k次迭代的下一次迭代记作第k+1次迭代。Gk为第k次迭代得到的G的值,Gk(即第k次迭代得到的G)用以表征上述数值表达式所包含的幂。Gk的初始值可以是随机初始化的数值,也可以是在预先设置的数值集合中(例如{2-5,2-4,2-3})与上述浮点值形式的权重的值最接近的一个数值。Wk为第k次迭代得到的W的值,Wk(即第k次迭代得到的W)的初始值为上述浮点值形式的权重。λk可以用来衡量第k次迭代得到的、权重为用数值表达式表征的权重(即Gk)的多层神经网络模型与上述目标多层神经网络模型(即权重为浮点值形式的权重W的多层神经网络模型)之间的差异程度。F()是上述目标多层神经网络模型的损失函数,该损失函数可以看作是关于上述W的函数。f()用以表征上述目标多层神经网络模型。当上述目标多层神经网络模型的权重为W时,可以用f(W)表征上述目标多层神经网络模型的输出;当上述目标多层神经网络模型的权重为Wk+1时,可以用f(Wk+1)表征上述目标多层神经网络模型的输出;当上述目标多层神经网络模型的权重为Gk时,可以用f(Gk)表征上述目标多层神经网络模型的输出。argminWLρ(W,Gkk)的结果为使得Lρ(W,Gkk)的值最小时的W值。argminGLρ(Wk+1,G,λk)的结果为使得Lρ(Wk+1,G,λk)的值最小时的G值。
需要说明的是,在ADMM算法中,上述k、k+1仅仅用于标识迭代次数,而不是幂运算中的指数。例如,在ADMM算法中,不能通过计算λk与λ1的乘积,计算得到λk+1
然后,上述执行主体可以将包含所确定出的分数与第一整数的乘积的表达式或将包含所确定出的幂与第二整数的乘积的表达式,确定为上述数值表达式,由此得到用数值表达式表征的权重。
需要说明的是,ADMM算法的迭代步骤包括如下运算:
Wk+1=argminWLρ(W,Gkk)
Gk+1=argminGLρ(Wk+1,G,λk)
λk+1=λk+f(Wk+1)-f(Gk+1)
其中,每次迭代可以分别执行上述运算,不断更新上述Wk+1、Gk+1、λk+1的值。更新时,W和G
需要说明的是,迭代时,更新Wk+1和Gk+1的顺序可以不做具体限定,即可以先更新Wk +1,也可以先更新Gk+1。对于不同的执行顺序,上述迭代步骤的公式可以做适应性调整。但一旦顺序确定,则需保证在后续的迭代步骤中固定不变,即如果首次迭代为先更新Wk+1,则后续迭代步骤均需先更新Wk+1。实践中,当先更新Wk+1,后更新Gk+1时,可以使得模型在训练时收敛得更快;而当先更新Gk+1,后更新Wk+1时,可以使得模型在训练时收敛得更稳定。
在这里,基于上述函数,进行迭代,以确定出上述数值表达式所包含的分数或幂的步骤是本领域的技术人员广泛研究的公知技术,在此不再赘述。
在本实施例的一些可选的实现方式中,当数值表达式是包含分数与第一整数的乘积的表达式时,第一整数是通过如下步骤确定的:在预定分数集合中,确定与该目标层的浮点值形式的权重的值最接近的分数;利用最小二乘法,确定整数集合中的目标整数,使得目标整数与最接近的分数的乘积最接近该目标层的浮点值形式的权重的值;将目标整数确定为第一整数。其中,上述预定分数集合可以是 即将区间(0,1]平均分为256份,分母为256,分子为从1开始依次递增1的分数组成的分数集合;也可以是其他分数集合,例如 等等。
可选的,上述第一整数也可以是按照其他方式确定的,例如,上述第一整数也可以由技术人员预先设定。
需要说明的是,上述预定分数集合中的分数可以作为上述数值表达式中所包含的分数。由此,当目标多层神经网络模型所包括的目标层的权重为多个浮点值形式的权重时,基于预定分数集合的设置,可以丰富模型的权重表征形式,有助于进一步提高模型的运算速度。
在本实施例的一些可选的实现方式中,当数值表达式是包含幂与第二整数的乘积的表达式时,第二整数是通过如下步骤确定的:在预定幂集合中,确定与该目标层的浮点值形式的权重的值最接近的幂;利用最小二乘法,确定整数集合中的目标整数,使得目标整数与最接近的幂的乘积最接近该目标层的浮点值形式的权重的值;将目标整数确定为第二整数。其中,上述预定幂集合可以是{2-1,2-2,2-3,2-4}、{2-1,2-4}等等。
可选的,上述第二整数也可以是按照其他方式确定的,例如,上述第二整数也可以由技术人员预先设定。
需要说明的是,上述预定幂集合中的幂可以作为上述数值表达式中所包含的幂。由此,当目标多层神经网络模型所包括的目标层的权重为多个浮点值形式的权重时,基于预定幂集合的设置,可以丰富模型的权重表征形式,有助于进一步提高模型的运算速度。
步骤203,将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型。
在本实施例中,上述执行主体可以将目标层的浮点值形式的权重替为用数值表达式表征的权重,之后得到的目标多层神经网络模型确定为新的多层神经网络模型。
继续参见图3,图3是根据本实施例的用于生成模型的方法的应用场景的一个示意图。在图3的应用场景中,服务器301获取到了目标多层神经网络模型3011,其中,目标多层神经网络模型3011包括的目标层的浮点值形式的权重为0.03;然后,服务器301基于该目标层的浮点值形式的权重0.03,采用上述方式确定出该目标层的用数值表达式表征的权重2-5×1;最后,服务器301将目标层的浮点值形式的权重为0.03,替换为用数值表达式表征的权重2-5×1,由此,得到新的多层神经网络模型3012。
本申请的上述实施例提供的方法,通过获取目标多层神经网络模型,其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重,然后对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数,包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数,最后将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型,从而基于将浮点值形式的权重替换为用数值表达式表征的权重,提高了生成模型的灵活性,有助于提高模型的运算效率。
进一步参考图4,其示出了用于生成模型的方法的又一个实施例的流程400。该用于生成模型的方法的流程400,包括以下步骤:
步骤401,获取目标多层神经网络模型。
在本实施例中,步骤401与图2对应实施例中的步骤201基本一致,这里不再赘述。
步骤402,对于至少一个目标层中的每个目标层,执行子步骤4021-子步骤4024:
子步骤4021,获取目标多层神经网络模型的损失函数、目标多层神经网络模型与待生成的多层神经网络模型之间的误差函数和正则项。
在本实施例中,用于生成模型的方法的执行主体(例如图1所示的服务器)可以获取目标多层神经网络模型的损失函数、目标多层神经网络模型与待生成的多层神经网络模型之间的误差函数和正则项。
在本实施例中,上述损失函数可以是技术人员预先确定的函数,也可以是由技术人员设置程序后,由上述执行主体生成的函数。该损失函数可以是以上述浮点值形式的权重为自变量的函数。上述误差函数的值可以用以衡量权重为用数值表达式表征的权重的多层神经网络模型与上述目标多层神经网络模型(即权重为浮点值形式的权重的多层神经网络模型)之间的差异程度。上述误差函数可以是技术人员预先确定的函数,也可以是由技术人员设置程序后,上述执行主体生成的函数。上述正则项的设置,可以提高模型在训练时的收敛速度,有助于ADMM算法的迭代步骤的进行。
子步骤4022,将损失函数与正则项的和确定为目标函数。
在本实施例中,上述执行主体可以将损失函数与正则项的和确定为目标函数。
子步骤4023,利用交替方向乘子算法,以目标函数的函数值取得最小值为目标,以误差函数的函数值小于预设阈值为约束条件,确定该目标层的用数值表达式表征的权重。
在本实施例中,上述执行主体可以利用交替方向乘子算法,以目标函数的函数值取得最小值为目标,以误差函数的函数值小于预设阈值为约束条件,确定该目标层的用数值表达式表征的权重。其中,上述预设阈值可以是预先设置的各种数值,通常情况下,当上述预设阈值越接近于0时,可以说明用数值表达式表征的权重的值与浮点值形式的权重的值越接近,目标层的权重为用数值表达式表征的权重的多层神经网络模型与目标多层神经网络模型越接近。此时,通过目标层的权重为用数值表达式表征的权重的多层神经网络模型,可以得到与目标多层神经网络模型越近似的结果(即输出)。
子步骤4024,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重。
在本实施例中,上述执行主体可以使用用数值表达式表征的权重替换该目标层的浮点值形式的权重。
至此,步骤402的子步骤4021-子步骤4024执行完毕。
步骤403,将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型。
在本实施例中,步骤403与图2对应实施例中的步骤203基本一致,这里不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于生成模型的方法的流程400突出了利用交替方向乘子算法确定目标层的用数值表达式表征的权重的步骤。由此,本实施例描述的方案可以引入更多的采用更多的方式确定目标层的用数值表达式表征的权重,从而进一步提高了生成模型的灵活性。
作为对上述各用于生成模型的方法的又一应用场景,本申请实施例提供了一种用于检测人脸的方法,该方法包括:获取待检测图像;将待检测图像输入至多层神经网络模型,生成用于表征输入的图像是否包括人脸图像的检测结果,其中,多层神经网络模型是按照上述各个用于生成模型的方法中任一方法生成的。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于生成模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于生成模型的装置500包括:获取单元501、第一确定单元502和第二确定单元503。其中,获取单元501配置用于获取目标多层神经网络模型,其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重;第一确定单元502配置用于对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数;第二确定单元503配置用于将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型。
在本实施例中,用于生成模型的装置500的获取单元501可以通过有线连接方式或者无线连接方式从其他电子设备(例如存储有目标多层神经网络模型的电子设备)或者本地获取目标多层神经网络模型。其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重。浮点值形式的权重可以是采用浮点值(例如0.00056、0.00007等)表征的权重。
在本实施例中,上述第一确定单元502可以对于至少一个目标层中的每个目标层,基于获取单元501得到的该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重。其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数。
在本实施例中,上述第二确定单元503可以将目标层的浮点值形式的权重替为用数值表达式表征的权重,之后得到的目标多层神经网络模型确定为新的多层神经网络模型。
在本实施例的一些可选的实现方式中,第一确定单元包括:确定模块(图中未示出)配置用于基于该目标层的浮点值形式的权重,利用交替方向乘子算法,确定该目标层的用数值表达式表征的权重。
在本实施例的一些可选的实现方式中,确定模块包括:获取子模块(图中未示出)配置用于获取目标多层神经网络模型的损失函数、目标多层神经网络模型与待生成的多层神经网络模型之间的误差函数和正则项;第一确定子模块,配置用于将损失函数与正则项的和确定为目标函数;第二确定子模块,配置用于利用交替方向乘子算法,以目标函数的函数值取得最小值为目标,以误差函数的函数值小于预设阈值为约束条件,确定该目标层的用数值表达式表征的权重。
在本实施例的一些可选的实现方式中,当数值表达式是包含分数与第一整数的乘积的表达式时,第一整数是通过如下步骤确定的:在预定分数集合中,确定与该目标层的浮点值形式的权重的值最接近的分数;利用最小二乘法,确定整数集合中的目标整数,使得目标整数与最接近的分数的乘积最接近该目标层的浮点值形式的权重的值;将目标整数确定为第一整数。
在本实施例的一些可选的实现方式中,当数值表达式是包含幂与第二整数的乘积的表达式时,第二整数是通过如下步骤确定的:在预定幂集合中,确定与该目标层的浮点值形式的权重的值最接近的幂;利用最小二乘法,确定整数集合中的目标整数,使得目标整数与最接近的幂的乘积最接近该目标层的浮点值形式的权重的值;将目标整数确定为第二整数。
本申请的上述实施例提供的装置,通过获取单元501获取目标多层神经网络模型,其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重;第一确定单元502对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数;第二确定单元503将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型,从而基于将浮点值形式的权重替换为用数值表达式表征的权重,提高了生成模型的灵活性,有助于提高模型的运算效率。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU601、ROM602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、第一确定单元和第二确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标多层神经网络模型的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取目标多层神经网络模型,其中,目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重;对于至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数;将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (13)

1.一种用于生成模型的方法,包括:
获取目标多层神经网络模型,其中,所述目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重;
对于所述至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:
包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;
包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数;
将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型。
2.根据权利要求1所述的方法,其中,所述基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,包括:
基于该目标层的浮点值形式的权重,利用交替方向乘子算法,确定该目标层的用数值表达式表征的权重。
3.根据权利要求2所述的方法,其中,所述基于该目标层的浮点值形式的权重,利用交替方向乘子算法,确定该目标层的用数值表达式表征的权重,包括:
获取所述目标多层神经网络模型的损失函数、所述目标多层神经网络模型与待生成的多层神经网络模型之间的误差函数和正则项;
将所述损失函数与所述正则项的和确定为目标函数;
利用交替方向乘子算法,以所述目标函数的函数值取得最小值为目标,以所述误差函数的函数值小于预设阈值为约束条件,确定该目标层的用数值表达式表征的权重。
4.根据权利要求1-3之一所述的方法,其中,当数值表达式是包含分数与第一整数的乘积的表达式时,第一整数是通过如下步骤确定的:
在预定分数集合中,确定与该目标层的浮点值形式的权重的值最接近的分数;
利用最小二乘法,确定整数集合中的目标整数,使得所述目标整数与所述最接近的分数的乘积最接近该目标层的浮点值形式的权重的值;
将所述目标整数确定为第一整数。
5.根据权利要求1-3之一所述的方法,其中,当数值表达式是包含幂与第二整数的乘积的表达式时,第二整数是通过如下步骤确定的:
在预定幂集合中,确定与该目标层的浮点值形式的权重的值最接近的幂;
利用最小二乘法,确定整数集合中的目标整数,使得所述目标整数与所述最接近的幂的乘积最接近该目标层的浮点值形式的权重的值;
将所述目标整数确定为第二整数。
6.一种用于生成模型的装置,包括:
获取单元,配置用于获取目标多层神经网络模型,其中,所述目标多层神经网络模型包括至少一个目标层,目标层的权重为浮点值形式的权重;
第一确定单元,配置用于对于所述至少一个目标层中的每个目标层,基于该目标层的浮点值形式的权重,确定该目标层的用数值表达式表征的权重,使用用数值表达式表征的权重替换该目标层的浮点值形式的权重,其中,数值表达式是以下任一项:
包含分数与第一整数的乘积的表达式,其中,分数的分母是预先确定的整数,分数的分子是整数;
包含幂与第二整数的乘积的表达式,其中,幂的底数是预先确定的整数,幂的指数是整数;
第二确定单元,配置用于将目标层的权重替换后的目标多层神经网络模型确定为新的多层神经网络模型。
7.根据权利要求6所述的装置,其中,所述第一确定单元包括:
确定模块,配置用于基于该目标层的浮点值形式的权重,利用交替方向乘子算法,确定该目标层的用数值表达式表征的权重。
8.根据权利要求7所述的装置,其中,所述确定模块包括:
获取子模块,配置用于获取所述目标多层神经网络模型的损失函数、所述目标多层神经网络模型与待生成的多层神经网络模型之间的误差函数和正则项;
第一确定子模块,配置用于将所述损失函数与所述正则项的和确定为目标函数;
第二确定子模块,配置用于利用交替方向乘子算法,以所述目标函数的函数值取得最小值为目标,以所述误差函数的函数值小于预设阈值为约束条件,确定该目标层的用数值表达式表征的权重。
9.根据权利要求6-8之一所述的装置,其中,当数值表达式是包含分数与第一整数的乘积的表达式时,第一整数是通过如下步骤确定的:
在预定分数集合中,确定与该目标层的浮点值形式的权重的值最接近的分数;
利用最小二乘法,确定整数集合中的目标整数,使得所述目标整数与所述最接近的分数的乘积最接近该目标层的浮点值形式的权重的值;
将所述目标整数确定为第一整数。
10.根据权利要求6-8之一所述的装置,其中,当数值表达式是包含幂与第二整数的乘积的表达式时,第二整数是通过如下步骤确定的:
在预定幂集合中,确定与该目标层的浮点值形式的权重的值最接近的幂;
利用最小二乘法,确定整数集合中的目标整数,使得所述目标整数与所述最接近的幂的乘积最接近该目标层的浮点值形式的权重的值;
将所述目标整数确定为第二整数。
11.一种用于检测人脸的方法,包括:
获取待检测图像;
将所述待检测图像输入至多层神经网络模型,生成用于表征输入的图像是否包括人脸图像的检测结果,其中,所述多层神经网络模型是按照如权利要求1-5中任一所述的方法生成的。
12.一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN201810297441.0A 2018-04-04 2018-04-04 用于检测人脸的方法、用于生成模型的装置 Active CN108509179B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810297441.0A CN108509179B (zh) 2018-04-04 2018-04-04 用于检测人脸的方法、用于生成模型的装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810297441.0A CN108509179B (zh) 2018-04-04 2018-04-04 用于检测人脸的方法、用于生成模型的装置

Publications (2)

Publication Number Publication Date
CN108509179A true CN108509179A (zh) 2018-09-07
CN108509179B CN108509179B (zh) 2021-11-30

Family

ID=63380421

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810297441.0A Active CN108509179B (zh) 2018-04-04 2018-04-04 用于检测人脸的方法、用于生成模型的装置

Country Status (1)

Country Link
CN (1) CN108509179B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109621405A (zh) * 2018-11-21 2019-04-16 罗伊互娱(深圳)有限公司 跨平台交互方法、装置、计算机设备及存储介质
CN109621404A (zh) * 2018-11-21 2019-04-16 罗伊互娱(深圳)有限公司 跨平台交互系统、方法、装置、计算机设备及存储介质
WO2020207174A1 (zh) * 2019-04-11 2020-10-15 北京字节跳动网络技术有限公司 用于生成量化神经网络的方法和装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101527010A (zh) * 2008-03-06 2009-09-09 上海理工大学 人工神经网络算法的硬件实现方法及其系统
CN105320495A (zh) * 2014-07-22 2016-02-10 英特尔公司 用于卷积神经网络的权重移位机制
CN105654176A (zh) * 2014-11-14 2016-06-08 富士通株式会社 神经网络系统及神经网络系统的训练装置和方法
CN106066783A (zh) * 2016-06-02 2016-11-02 华为技术有限公司 基于幂次权重量化的神经网络前向运算硬件结构
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
US20170270073A1 (en) * 2016-03-18 2017-09-21 Qualcomm Incorporated Memory Reduction Method For Fixed Point Matrix Multiply
US20170286830A1 (en) * 2016-04-04 2017-10-05 Technion Research & Development Foundation Limited Quantized neural network training and inference
US20170337466A1 (en) * 2016-05-17 2017-11-23 Silicon Storage Technology, Inc. Deep Learning Neural Network Classifier Using Non-volatile Memory Array
CN107480770A (zh) * 2017-07-27 2017-12-15 中国科学院自动化研究所 可调节量化位宽的神经网络量化与压缩的方法及装置
US20180046894A1 (en) * 2016-08-12 2018-02-15 DeePhi Technology Co., Ltd. Method for optimizing an artificial neural network (ann)
CN107766939A (zh) * 2017-11-07 2018-03-06 维沃移动通信有限公司 一种数据处理方法、装置及移动终端
CN107844830A (zh) * 2016-12-08 2018-03-27 上海兆芯集成电路有限公司 具有数据大小和权重大小混合计算能力的神经网络单元

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101527010A (zh) * 2008-03-06 2009-09-09 上海理工大学 人工神经网络算法的硬件实现方法及其系统
CN105320495A (zh) * 2014-07-22 2016-02-10 英特尔公司 用于卷积神经网络的权重移位机制
CN105654176A (zh) * 2014-11-14 2016-06-08 富士通株式会社 神经网络系统及神经网络系统的训练装置和方法
US20170270073A1 (en) * 2016-03-18 2017-09-21 Qualcomm Incorporated Memory Reduction Method For Fixed Point Matrix Multiply
US20170286830A1 (en) * 2016-04-04 2017-10-05 Technion Research & Development Foundation Limited Quantized neural network training and inference
US20170337466A1 (en) * 2016-05-17 2017-11-23 Silicon Storage Technology, Inc. Deep Learning Neural Network Classifier Using Non-volatile Memory Array
CN106066783A (zh) * 2016-06-02 2016-11-02 华为技术有限公司 基于幂次权重量化的神经网络前向运算硬件结构
US20180046894A1 (en) * 2016-08-12 2018-02-15 DeePhi Technology Co., Ltd. Method for optimizing an artificial neural network (ann)
CN107844830A (zh) * 2016-12-08 2018-03-27 上海兆芯集成电路有限公司 具有数据大小和权重大小混合计算能力的神经网络单元
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
CN107480770A (zh) * 2017-07-27 2017-12-15 中国科学院自动化研究所 可调节量化位宽的神经网络量化与压缩的方法及装置
CN107766939A (zh) * 2017-11-07 2018-03-06 维沃移动通信有限公司 一种数据处理方法、装置及移动终端

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
包健 等: "一种定点数权值神经网络的优化方法及其应用", 《计算机应用》 *
陈迎春 等: "基于结构和参数智能优化的神经网络数值预测方法研究", 《信息工程大学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109621405A (zh) * 2018-11-21 2019-04-16 罗伊互娱(深圳)有限公司 跨平台交互方法、装置、计算机设备及存储介质
CN109621404A (zh) * 2018-11-21 2019-04-16 罗伊互娱(深圳)有限公司 跨平台交互系统、方法、装置、计算机设备及存储介质
WO2020207174A1 (zh) * 2019-04-11 2020-10-15 北京字节跳动网络技术有限公司 用于生成量化神经网络的方法和装置

Also Published As

Publication number Publication date
CN108509179B (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN109902186A (zh) 用于生成神经网络的方法和装置
CN108307240B (zh) 视频推荐方法和装置
CN108898185A (zh) 用于生成图像识别模型的方法和装置
CN108595628A (zh) 用于推送信息的方法和装置
CN110263938A (zh) 用于生成信息的方法和装置
CN109389640A (zh) 图像处理方法和装置
CN109815365A (zh) 用于处理视频的方法和装置
CN110443222A (zh) 用于训练脸部关键点检测模型的方法和装置
CN108629823A (zh) 多视角图像的生成方法和装置
CN108492068A (zh) 用于路径规划的方法和装置
CN108182472A (zh) 用于生成信息的方法和装置
CN108509179A (zh) 用于生成模型的方法和装置
CN109976997A (zh) 测试方法和装置
CN106908082A (zh) 用于校准终端中的陀螺仪的方法、装置及系统
CN109410253A (zh) 用于生成信息的方法和装置
CN109377508A (zh) 图像处理方法和装置
CN107451869A (zh) 用于推送信息的方法和装置
CN107329834A (zh) 用于执行计算任务的方法和装置
CN110288625A (zh) 用于处理图像的方法和装置
CN110473042A (zh) 用于获取信息的方法及装置
CN109597912A (zh) 用于处理图片的方法
CN109446379A (zh) 用于处理信息的方法和装置
CN109492687A (zh) 用于处理信息的方法和装置
CN107844932A (zh) 订单处理方法和装置
CN109255563A (zh) 物品的储位区域的确定方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant