CN109583572A - 一种卷积神经网络的训练方法、验证方法及装置 - Google Patents

一种卷积神经网络的训练方法、验证方法及装置 Download PDF

Info

Publication number
CN109583572A
CN109583572A CN201811481672.3A CN201811481672A CN109583572A CN 109583572 A CN109583572 A CN 109583572A CN 201811481672 A CN201811481672 A CN 201811481672A CN 109583572 A CN109583572 A CN 109583572A
Authority
CN
China
Prior art keywords
neural network
input data
data
activation
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811481672.3A
Other languages
English (en)
Inventor
贾书军
程帅
袁淮
刘威
胡骏
田欢
周玲武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neusoft Rui Auto Technology (shenyang) Co Ltd
Original Assignee
Neusoft Rui Auto Technology (shenyang) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neusoft Rui Auto Technology (shenyang) Co Ltd filed Critical Neusoft Rui Auto Technology (shenyang) Co Ltd
Priority to CN201811481672.3A priority Critical patent/CN109583572A/zh
Publication of CN109583572A publication Critical patent/CN109583572A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本申请公开了一种卷积神经网络的训练方法验证方法及装置,在对神经网络进行训练时,对前向计算中的激活计算进行了改进,将传统技术中的若激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/10,改进为激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中,n为正整数。因为将一个数据修改为原来的1/2n,可以通过移位操作来实现,效率远远高于将一个数据修改为原来的1/10。因此,利用本申请实施例提供的训练方法训练得到神经网络模型,在进行前向运算时,由于在进行激活计算时提升了计算效率,因此,整个神经网络模型的计算效率也得到了提升。

Description

一种卷积神经网络的训练方法、验证方法及装置
技术领域
本申请涉及深度学习领域,特别是涉及一种卷积神经网络的训练方法。验证方法及装置。
背景技术
目前,深度学习在图像检测、语音识别等领域的应用越来越广泛,卷积神经网络是深度学习的一种重要算法。由于卷积神经网络的计算量比较大,因此相对来讲计算效率比较低。
而卷积神经网络的计算效率在一定程度上限制了其在一些场景例如手机等终端设备中的应用。因此,如何提升卷积神经网络的计算效率,是目前急需解决的问题。
发明内容
本申请所要解决的技术问题是如何提升卷积神经网络的计算效率,提供一种卷积神经网络的训练方法、验证方法及装置。
第一方面,本申请实施例提供了一种卷积神经网络的训练方法,所述方法包括:
第一步:初始化神经网络的各个卷积核参数的初始值;
第二步:按照所述神经网络的结构进行前向计算;其中,所述前向计算中的激活计算具体为:
若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变;
第三步:判断所述神经网络的损失函数是否达到给定阈值,或者,所述神经网络的训练次数是否达到预设次数,如果是则执行第七步;反之执行第四步;
第四步:按照所述神经网络的神经网络结构进行反向传播计算;
第五步:按照所述神经网络的神经网络结构更新所述神经网络的卷积核参数的权重;
第六步:返回执行所述第二步进行训练;
第七步:保存所述神经网络对应的网络结构以及训练得到的神经网络模型。
可选的,所述n=3或者,所述n=4。
第二方面,本申请实施例提供了一种卷积神经网络的验证方法,应用于ARM处理器,所述方法包括:
获取目标输入数据;
将所述目标输入数据作为神经网络模型的输入,计算得到所述卷积神经网络的输出结果;其中,所述神经网络模型为利用如权利要求1-2任意一项的方法训练得到的。
可选的,在计算得到所述卷积神经网络的输出结果的过程中,包括激活计算;所述激活计算具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的比较函数,确定所述激活计算的输入数据是否小于0;
如果是,则将所述小于0的输入数据执行取反操作,并将取反之后得到的数据执行向左移位n位的操作;
将执行所述向左移位n位的操作之后得到的数据执行取反操作。
可选的,在计算得到所述卷积神经网络的输出结果的过程中,包括最大池化;所述最大池化具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的取最大值函数,确定所述池化的输入数据中的最大值。
第三方面,本申请实施例提供了一种卷积神经网络的训练装置,所述装置包括:
初始化单元,用于初始化神经网络的各个卷积核参数的初始值;
前向计算单元,用于按照所述神经网络的结构进行前向计算;其中,所述前向计算中的激活计算具体为:
若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变;
判断单元,用于判断所述神经网络的损失函数是否达到给定阈值,或者,所述神经网络的训练次数是否达到预设次数,如果是则执行第七步;反之执行第四步;
反向传播计算单元,用于按照所述神经网络的神经网络结构进行反向传播计算;
权重更新单元,用于按照所述神经网络的神经网络结构更新所述神经网络的卷积核参数的权重;
循环单元,用于返回执行所述第二步进行训练;
保存单元,用于保存所述神经网络对应的网络结构以及训练得到的神经网络模型。
可选的,所述n=3或者,所述n=4。
第四方面,本申请实施例提供了一种卷积神经网络的验证装置,应用于ARM处理器,所述装置包括:
获取单元,用于获取目标输入数据;
计算单元,用于将所述目标输入数据作为神经网络模型的输入,计算得到所述卷积神经网络的输出结果;其中,所述神经网络模型为利用如权利要求1-2任意一项的方法训练得到的。
可选的,在计算得到所述卷积神经网络的输出结果的过程中,包括激活计算;所述激活计算具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的比较函数,确定所述激活计算的输入数据是否小于0;
如果是,则将所述小于0的输入数据执行取反操作,并将取反之后得到的数据执行向左移位n位的操作;
将执行所述向左移位n位的操作之后得到的数据执行取反操作。
可选的,在计算得到所述卷积神经网络的输出结果的过程中,包括最大池化;所述最大池化具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的取最大值函数,确定所述池化的输入数据中的最大值。
与现有技术相比,本申请实施例具有以下优点:
本申请实施例提供的卷积神经网络的训练方法,在对神经网络进行训练时,对前向计算中的激活计算进行了改进,将传统技术中的若激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/10,改进为激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中,n为正整数。因为将一个数据修改为原来的1/2n,可以通过移位操作来实现,效率远远高于将一个数据修改为原来的1/10。因此,利用本申请实施例提供的训练方法训练得到神经网络模型,在进行前向运算时,由于在进行激活计算时提升了计算效率,因此,整个神经网络模型的计算效率也得到了提升。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种卷积神经网络的训练方法的流程示意图;
图2为本申请实施例提供的一种卷积神经网络的验证方法的流程示意图;
图3为本申请实施例提供的一种激活计算的计算方法的流程示意图;
图4为本申请实施例中一种卷积神经网络的训练装置的结构示意图;
图5为本申请实施例中一种卷积神经网络的验证装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
一方面,本申请的发明人经过研究发现,现有技术中,由于卷积神经网络的计算量比较大,因此相对来讲计算效率比较低。而卷积神经网络的计算效率在一定程度上限制了其在一些场景例如手机等终端设备中的应用。因此,如何提升卷积神经网络的计算效率,是目前急需解决的问题。
另一方面,本申请的发明人经过研究发现,在传统技术中,卷积神经网络的前向计算中的激活计算在具体实现时,是若激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/10。而由于计算机存储的均为二进制数据,将一个数据修改为原来的1/10,操作效率比较低。若将一个数据修改为原来的1/2n,操作效率会提升很多。
鉴于此,本申请实施例提供了一种卷积神经网络的训练方法,在对神经网络进行训练时,对前向计算中的激活计算进行了改进,将传统技术中的若激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/10,改进为激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中,n为正整数。因为将一个数据修改为原来的1/2n,可以通过移位操作来实现,效率远远高于将一个数据修改为原来的1/10。因此,利用本申请实施例提供的训练方法训练得到神经网络模型,在进行前向运算时,由于在进行激活计算时提升了计算效率,因此,整个神经网络模型的计算效率也得到了提升。
下面结合附图,详细说明本申请的各种非限制性实施方式。
示例性方法
参见图1,该图为本申请实施例提供的一种卷积神经网络的训练方法的流程示意图。
在本实施例中,所述方法例如可以包括以下步骤S101-S107。
S101:初始化神经网络的各个卷积核参数的初始值。
S102:按照所述神经网络的结构进行前向计算;其中,所述前向计算中的激活计算具体为:若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变。
S103:判断所述神经网络的损失函数是否达到给定阈值,或者,所述神经网络的训练次数是否达到预设次数,如果是则执行S107;反之执行S104。
S104:按照所述神经网络的神经网络结构进行反向传播计算。
S105:按照所述神经网络的神经网络结构更新所述神经网络的卷积核参数的权重。
S106:返回执行所述S102进行训练。
S107:保存所述神经网络对应的网络结构以及训练得到的神经网络模型。
关于以上S101-S107需要说明的是,S102是本申请实施例的核心。关于S102需要说明的是,本申请实施例不具体限定所述n的具体取值,所述n的具体取值可以根据实际情况确定。
在本申请实施例的一种实现方式中,考虑到传统激活计算中,对于小于0的输入数据,是将其值修改为原来的1/10,因此,可以将1/2n确定为与1/10接近的值。例如,所述n可以为3,此时对应1/2n=1/8;又如,所述n可以为4,此时对应1/2n=1/16。
关于其它步骤,由于与传统技术类似,故在此不再赘述。
通过以上描述可知,利用本申请实施例提供的卷积神经网络的训练方法,在对神经网络进行训练时,对前向计算中的激活计算进行了改进,将传统技术中的若激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/10,改进为激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中,n为正整数。因为将一个数据修改为原来的1/2n,可以通过移位操作来实现,效率远远高于将一个数据修改为原来的1/10。因此,利用本申请实施例提供的训练方法训练得到神经网络模型,在进行前向运算时,由于在进行激活计算时提升了计算效率,因此,整个神经网络模型的计算效率也得到了提升。
基于以上实施例提供的卷积神经网络训练方法,本申请实施例还提供了一种卷积神经网络的验证方法,以下结合附图介绍该方法。
参见图2,该图为本申请实施例提供的一种卷积神经网络的验证方法的流程示意图。
需要说明的是,考虑到应用卷积神经网络的许多设备上都使用ARM处理器,因此,本申请实施例提供的卷积神经网络的验证方法可以应用于ARM处理器。
所述方法例如可以通过如下步骤S201-S202实现。
S201:获取目标输入数据。
S202:将所述目标数据作为神经网络模型的输入,计算得到所述卷积神经网络的输出结果。
其中,S202中提及的神经网络模型,是指,利用以上实施例提供的卷积神经网络的训练方法训练得到的神经网络模型。
需要说明的是,本申请实施例不具体限定所述目标输入数据,所述目标输入数据与所述神经网络模型的应用场景相关。例如,所述神经网络模型应用于图像识别,则所述输入数据可以为图像数据;又如,所述神经网络模型应用于语音识别,则所述输入数据可以为语音数据。
可以理解的是,在S202计算得到所述卷积神经网络的输出结果的过程中,包括激活计算。而由于在训练所述神经网络模型时,对前向计算中的激活计算进行了改进,改进后的激活计算为:若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变。对于改进后的激活计算,在ARM处理器中执行时,可以通过如图3所示的步骤实现。
S301:利用ARM处理器的单指令、多数据扩展结构NEON的比较函数,确定所述激活计算的输入数据是否小于0。
需要说明的是,Neon是适用于ARM Cortex-A系列处理器的一种128位单指令、多数据(Single Instruction、Multiple Data,SIMD)扩展结构。也就是说,利用Neon,可以同时对多个数据执行比较操作。若激活计算的输入数据的数据位宽为32bit,则可以同时对4个数据执行比较操作;若激活计算的输入数据的位宽为16bit,则可以同时对8个数据执行比较操作。因此,利用NEON的比较函数,可以同时为激活函数的多个输入数据执行比较操作,而无需一个一个按序执行比较操作,提升了计算效率。
举例说明,激活计算的输入数据的数据位宽为32bit,则可以同时对4个数据执行比较操作,例如,同时对数据1,1,-1,-1与0执行比较操作,输出为0,0,-1,-1;即确定小于0的数据为第三个数-1和第四个数-1。
S302:如果是,则将所述小于0的输入数据执行取反操作,并将取反之后得到的数据执行向左移位n位的操作。
S303:将执行所述向左移位n位的操作之后得到的数据执行取反操作。
执行步骤S302-S303之后,则完成了将小于0的输入数据修改为原来的1/2n
由此可见,采用图3所述的方法,与传统技术相比,一方面进行移位操作提升了激活计算的效率;另一方面,利用利用NEON的比较函数,可以同时为激活函数的多个输入数据执行比较操作,而无需一个一个按序执行比较操作,提升了计算效率。从而大大提升了卷积神经网络的计算效率。
可以理解的是,在S202计算得到所述卷积神经网络的输出结果的过程中,包括最大池化。所谓最大池化是指,从若干个数据中确定出最大值。以2*2池化为例,即确定出2*2矩阵中四个元素的最大值。
考虑到传统技术中,若要确定出四个元素例如a1、a2、a3和a4的最大值,要按顺序进行3次比较,从而确定出其中的最大值,也就是说,要利用3-4个时钟周期才可以得到该四个元素的最大值。
考虑到Neon是一种单指令、多数据的扩展结构,因此,利用Neon可以同时执行多个比较操作,也就是说,在一个时钟周期内可以执行多次比较操作,因此,若利用Neon的取最大值函数,可以仅利用1-2个时钟周期即可确定前述四个元素的最大值。
因此,在本申请实施例中,可以利用ARM处理器的单指令、多数据扩展结构NEON的取最大值函数,确定所述池化的输入数据中的最大值。从而提升最大池化过程的计算效率。
可以理解的是,由于池化的输入数据是例如2*2的矩阵形式,而NEON的取最大值函数的数据是m*1的形式,因此,若二者形式不匹配,在利用所述取最大值函数之前,还可以进行数据格式的转换,使得转换后的数据格式满足NEON的取最大值函数对输入数据的格式要求。
可以理解的是,在S202计算得到所述卷积神经网络的输出结果的过程中,也可能包括平均池化。所谓平均池化是指,确定若干个数据的平均值。以2*2池化为例,即确定出2*2矩阵中四个元素的平均值。
基于与上述最大池化类似的构思,在本申请实施例中,若池化输入数据的个数为2n,则可以利用ARM处理器的单指令、多数据扩展结构NEON的求和函数,确定所述池化的输入数据的和,然后利用移位操作(向左移n位)计算得到所述2n个数据的平均值。从而提升平均池化过程的计算效率。
示例性设备
参见图4,该图为本申请实施例中一种卷积神经网络的训练装置的结构示意图。
所述装置400例如可以具体包括:初始化单元410、前向计算单元420、判断单元430、反向传播计算单元440、权重更新单元450、循环单元460和保存单元470。
初始化单元410,用于初始化神经网络的各个卷积核参数的初始值;
前向计算单元420,用于按照所述神经网络的结构进行前向计算;其中,所述前向计算中的激活计算具体为:
若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变;
判断单元430,用于判断所述神经网络的损失函数是否达到给定阈值,或者,所述神经网络的训练次数是否达到预设次数,如果是则执行第七步;反之执行第四步;
反向传播计算单元440,用于按照所述神经网络的神经网络结构进行反向传播计算;
权重更新单元450,用于按照所述神经网络的神经网络结构更新所述神经网络的卷积核参数的权重;
循环单元460,用于返回执行所述第二步进行训练;
保存单元470,用于保存所述神经网络对应的网络结构以及训练得到的神经网络模型。
可选的,所述n=3或者,所述n=4。
由于所述装置400是与以上方法实施例提供图1所示的方法对应的装置,所述装置400的各个单元的具体实现,均与以上方法实施例图1所示的方法为同一构思,因此,关于所述装置400的各个单元的具体实现,可以参考以上方法实施例关于图1所示的方法的描述部分,此处不再赘述。
由此可见,利用本申请实施例提供的卷积神经网络的训练装置,在对神经网络进行训练时,对前向计算中的激活计算进行了改进,将传统技术中的若激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/10,改进为激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中,n为正整数。因为将一个数据修改为原来的1/2n,可以通过移位操作来实现,效率远远高于将一个数据修改为原来的1/10。因此,利用本申请实施例提供的训练方法训练得到神经网络模型,在进行前向运算时,由于在进行激活计算时提升了计算效率,因此,整个神经网络模型的计算效率也得到了提升。
参见图5,该图为本申请实施例中一种卷积神经网络的验证装置的结构示意图。
所述装置500可以应用于ARM处理器,所述装置500例如可以包括:
获取单元510,用于获取目标输入数据;
计算单元520,用于将所述目标输入数据作为神经网络模型的输入,计算得到所述卷积神经网络的输出结果;其中,所述神经网络模型为利用如以上方法实施例提供的卷积神经网络的训练方法训练得到的。
可选的,在计算得到所述卷积神经网络的输出结果的过程中,包括激活计算;所述激活计算具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的比较函数,确定所述激活计算的输入数据是否小于0;
如果是,则将所述小于0的输入数据执行取反操作,并将取反之后得到的数据执行向左移位n位的操作;
将执行所述向左移位n位的操作之后得到的数据执行取反操作。
可选的,在计算得到所述卷积神经网络的输出结果的过程中,包括最大池化;所述最大池化具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的取最大值函数,确定所述池化的输入数据中的最大值。
由于所述装置500是与以上方法实施例提供卷积神经网络的验证方法对应的装置,所述装置500的各个单元的具体实现,均与以上方法实施例提供卷积神经网络的验证方法为同一构思,因此,关于所述装置500的各个单元的具体实现,可以参考以上方法实施例提供卷积神经网络的验证方法的描述部分,此处不再赘述。
通过以上描述可知,采用本申请实施例提供的卷积神经网络的验证装置,与传统技术相比,一方面进行移位操作提升了激活计算的效率;另一方面,利用利用NEON的比较函数,可以同时为激活函数的多个输入数据执行比较操作,而无需一个一个按序执行比较操作,提升了计算效率。从而大大提升了卷积神经网络的计算效率。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种卷积神经网络的训练方法,其特征在于,所述方法包括:
第一步:初始化神经网络的各个卷积核参数的初始值;
第二步:按照所述神经网络的结构进行前向计算;其中,所述前向计算中的激活计算具体为:
若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变;
第三步:判断所述神经网络的损失函数是否达到给定阈值,或者,所述神经网络的训练次数是否达到预设次数,如果是则执行第七步;反之执行第四步;
第四步:按照所述神经网络的神经网络结构进行反向传播计算;
第五步:按照所述神经网络的神经网络结构更新所述神经网络的卷积核参数的权重;
第六步:返回执行所述第二步进行训练;
第七步:保存所述神经网络对应的网络结构以及训练得到的神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述n=3或者,所述n=4。
3.一种卷积神经网络的验证方法,其特征在于,应用于ARM处理器,所述方法包括:
获取目标输入数据;
将所述目标输入数据作为神经网络模型的输入,计算得到所述卷积神经网络的输出结果;其中,所述神经网络模型为利用如权利要求1-2任意一项的方法训练得到的。
4.根据权利要求3所述的方法,其特征在于,在计算得到所述卷积神经网络的输出结果的过程中,包括激活计算;所述激活计算具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的比较函数,确定所述激活计算的输入数据是否小于0;
如果是,则将所述小于0的输入数据执行取反操作,并将取反之后得到的数据执行向左移位n位的操作;
将执行所述向左移位n位的操作之后得到的数据执行取反操作。
5.根据权利要求3所述的方法,其特征在于,在计算得到所述卷积神经网络的输出结果的过程中,包括最大池化;所述最大池化具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的取最大值函数,确定所述池化的输入数据中的最大值。
6.一种卷积神经网络的训练装置,其特征在于,所述装置包括:
初始化单元,用于初始化神经网络的各个卷积核参数的初始值;
前向计算单元,用于按照所述神经网络的结构进行前向计算;其中,所述前向计算中的激活计算具体为:
若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变;
判断单元,用于判断所述神经网络的损失函数是否达到给定阈值,或者,所述神经网络的训练次数是否达到预设次数,如果是则执行第七步;反之执行第四步;
反向传播计算单元,用于按照所述神经网络的神经网络结构进行反向传播计算;
权重更新单元,用于按照所述神经网络的神经网络结构更新所述神经网络的卷积核参数的权重;
循环单元,用于返回执行所述第二步进行训练;
保存单元,用于保存所述神经网络对应的网络结构以及训练得到的神经网络模型。
7.根据权利要求6所述的装置,其特征在于,所述n=3或者,所述n=4。
8.一种卷积神经网络的验证装置,其特征在于,应用于ARM处理器,所述装置包括:
获取单元,用于获取目标输入数据;
计算单元,用于将所述目标输入数据作为神经网络模型的输入,计算得到所述卷积神经网络的输出结果;其中,所述神经网络模型为利用如权利要求1-2任意一项的方法训练得到的。
9.根据权利要求8所述的装置,其特征在于,在计算得到所述卷积神经网络的输出结果的过程中,包括激活计算;所述激活计算具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的比较函数,确定所述激活计算的输入数据是否小于0;
如果是,则将所述小于0的输入数据执行取反操作,并将取反之后得到的数据执行向左移位n位的操作;
将执行所述向左移位n位的操作之后得到的数据执行取反操作。
10.根据权利要求8所述的装置,其特征在于,在计算得到所述卷积神经网络的输出结果的过程中,包括最大池化;所述最大池化具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的取最大值函数,确定所述池化的输入数据中的最大值。
CN201811481672.3A 2018-12-05 2018-12-05 一种卷积神经网络的训练方法、验证方法及装置 Pending CN109583572A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811481672.3A CN109583572A (zh) 2018-12-05 2018-12-05 一种卷积神经网络的训练方法、验证方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811481672.3A CN109583572A (zh) 2018-12-05 2018-12-05 一种卷积神经网络的训练方法、验证方法及装置

Publications (1)

Publication Number Publication Date
CN109583572A true CN109583572A (zh) 2019-04-05

Family

ID=65927196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811481672.3A Pending CN109583572A (zh) 2018-12-05 2018-12-05 一种卷积神经网络的训练方法、验证方法及装置

Country Status (1)

Country Link
CN (1) CN109583572A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341518A (zh) * 2017-07-07 2017-11-10 东华理工大学 一种基于卷积神经网络的图像分类方法
CN107729984A (zh) * 2017-10-27 2018-02-23 中国科学院计算技术研究所 一种适用于神经网络激活函数的计算装置及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341518A (zh) * 2017-07-07 2017-11-10 东华理工大学 一种基于卷积神经网络的图像分类方法
CN107729984A (zh) * 2017-10-27 2018-02-23 中国科学院计算技术研究所 一种适用于神经网络激活函数的计算装置及方法

Similar Documents

Publication Publication Date Title
US11307864B2 (en) Data processing apparatus and method
CN109299237B (zh) 基于行动者评论家强化学习算法的循环网络人机对话方法
CN109635927A (zh) 一种卷积神经网络训练方法及装置
CN111527501B (zh) 芯片适配确定方法及相关产品
CN111078287B (zh) 一种向量运算协处理方法与装置
US20220004858A1 (en) Method for processing artificial neural network, and electronic device therefor
WO2023011002A1 (zh) 溢出感知的量化模型训练方法、装置、介质及终端设备
JP2019087072A (ja) 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム
CN109086871A (zh) 神经网络的训练方法、装置、电子设备和计算机可读介质
CN110458247A (zh) 图像识别模型的训练方法及装置、图像识别方法及装置
CN111126072A (zh) 一种Seq2Seq模型训练方法、装置、介质和设备
TW201737202A (zh) 類Alexnet網路的模型訓練方法和裝置
WO2021139233A1 (zh) 数据扩充混合策略生成方法、装置和计算机设备
TW202119297A (zh) 訓練方法、特徵提取方法、裝置及電子設備
CN109635706A (zh) 基于神经网络的手势识别方法、设备、存储介质及装置
CN114297934A (zh) 一种基于代理模型的模型参数并行仿真优化方法及装置
Antonova et al. Analytic manifold learning: Unifying and evaluating representations for continuous control
CN109583572A (zh) 一种卷积神经网络的训练方法、验证方法及装置
CN115082800B (zh) 图像分割方法
CN109558944A (zh) 基于可配置卷积层的卷积神经网络的算法优化方法及装置
CN110491372A (zh) 一种反馈信息生成方法、装置、存储介质和智能设备
Wang et al. Inverse reinforcement learning with graph neural networks for IoT resource allocation
CN114217881A (zh) 任务卸载方法及相关装置
JP2023531538A (ja) ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体
CN115174566B (zh) 一种基于深度强化学习的边缘计算任务卸载方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190405

RJ01 Rejection of invention patent application after publication