CN106919942A - 用于手写汉字识别的深度卷积神经网络的加速压缩方法 - Google Patents
用于手写汉字识别的深度卷积神经网络的加速压缩方法 Download PDFInfo
- Publication number
- CN106919942A CN106919942A CN201710037712.4A CN201710037712A CN106919942A CN 106919942 A CN106919942 A CN 106919942A CN 201710037712 A CN201710037712 A CN 201710037712A CN 106919942 A CN106919942 A CN 106919942A
- Authority
- CN
- China
- Prior art keywords
- neural networks
- convolutional neural
- depth convolutional
- layer
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了用于手写汉字识别的深度卷积神经网络的加速压缩方法,包括步骤:构建并训练出一个用于手写汉字识别的深度卷积神经网络;采用低秩分解的策略,对所述深度卷积神经网络的卷积层进行逐层分解训练以减少计算量;采用网络剪枝的策略,去除所述深度卷积神经网络的卷积层以及全连接层的冗余连接以减少存储量;对所述深度卷积神经网络前向代码进行编写。与现有技术相比,本发明同时采用了对卷积层的低秩分解策略和对整个深度卷积神经网络的剪枝压缩策略,从而大幅度的减少深度卷积神经网络的计算量和存储量;有效的将低秩分解策略和对深度卷积神经网络的剪枝策略融合起来,从而达到整个深度卷积神经网络的有效的加速压缩效果。
Description
技术领域
本发明涉及模式识别和人工智能技术领域,尤其涉及用于手写汉字识别的深度卷积神经网络的加速压缩方法。
背景技术
汉字源于象形文字,已经有几千年的历史,依旧是世界上使用人数最多的文字,众多的书写者,就意味着其有众多的书写风格,大量的类别以及相似字的存在,导致脱机手写汉字识别一直都是模式识别以及人工智能领域一个较难的问题。目前,脱机手写汉字识别已经被大量的运用在古代文档扫描、手写票据识别、扫描仪以及自然场景的文字识别等众多领域,
现在基于传统的数据预处理,然后进行特征提取,最后在加分类的框架对于脱机手写汉字的识别方法,其性能已经达到瓶颈,然而由于最近深度卷积神经网络的兴起,把脱机手写汉字的识别率提高到了一个新的高度。
然而,要想利用卷积神经网络达到一个更好的结果,人们往往直接把网络做大做深,甚至训练多个网络,然后在进行集成,虽然这样的做法可以略微可以提高网络的识别率,但是其引入的计算量和参数的存储量会急剧增加。这样一来就导致脱机手写汉字识别无法被大规模应用到实际生活中去,尤其是移动设备和嵌入式设置中。
发明内容
为克服现有技术的不足,针对现有技术中基于卷积神经网络的手写脱机汉字识别计算量大以及存储量大的缺点,采用低秩分解和网络剪枝的策略分别降低网络的计算量和存储量,提出用于手写汉字识别的深度卷积神经网络的加速压缩方法。
本发明的技术方案是这样实现的:
用于手写汉字识别的深度卷积神经网络的加速压缩方法,包括步骤
S1:构建并训练出一个用于手写汉字识别的深度卷积神经网络;
S2:采用低秩分解的策略,对所述深度卷积神经网络的卷积层进行逐层分解训练以减少计算量;
S3:采用网络剪枝的策略,去除所述深度卷积神经网络的卷积层以及全连接层的冗余连接以减少存储量;
S4:对所述深度卷积神经网络前向代码进行编写。
进一步地,步骤S1包括步骤
S11:设计所述深度卷积神经网络的结构,设置卷积层、池化层和全连接层参数,选取激活函数;
S12:将训练集的数据作为深度卷积神经网络的输入,采用随机梯度下降法对深度卷积神经网络进行训练,当深度卷积神经网络在训练集上的误差完全收敛时,终止训练,保存深度卷积神经网络各个层的参数。
更进一步地,步骤S11中每个卷积层与激活函数的之间以及第一个全连接层与激活函数之间添加有批归一化层,所述激活函数采用PReLU。
进一步地,步骤S2包括步骤
S21:通过已知低秩分解之前卷积层的计算复杂度和需要加速的倍数,计算各个低秩分解之后第一个卷积层输出特征图的数目;
S22:对整个深度卷积神经网络进行逐层低秩分解训练;
S23:对深度卷积神经网络进行微调。
进一步地,步骤S3包括步骤
S31:对已经低秩分解后的深度卷积神经网络模型进行再训练,去掉网络中的冗余连接;
S32:对深度卷积神经网络的各层的剩余连接的权值进行k-means聚类;
S33:对聚类所得的结果进行微调;
S34:对深度卷积神经网络的层参数进行编码。
进一步地,步骤S4包括步骤
S41:编写卷积层的前向代码;
S42:编写池化层的前向代码;
S43:编写全连接层的前向代码。
本发明的有益效果在于,与现有技术相比,本发明具有如下优点及有益效果:
同时采用了对卷积层的低秩分解策略和对整个深度卷积神经网络的剪枝压缩策略,从而大幅度的减少深度卷积神经网络的计算量和存储量;
有效的将低秩分解策略和对深度卷积神经网络的剪枝策略融合起来,从而达到整个深度卷积神经网络的有效的加速压缩效果。
附图说明
图1是本发明用于手写汉字识别的深度卷积神经网络的加速压缩方法流程图;
图2是本发明用于手写汉字识别的深度卷积神经网络的加速压缩方法细化后的流程图;
图3是本发明中原始卷积的示意图;
图4是本发明中卷积层低秩分解的示意图;
图5是传统的低秩分解策略的示意图;
图6是本发明中改进后低秩分解训练的示意图;
图7是本发明中低秩分解以及网络剪枝的整体示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1和图2,本发明包括以下四个过程:S1:设计并训练一个适用于脱机手写汉字识别的深度卷积神经网络;S2:根据所需加速的倍数,计算出低秩分解后第一个卷积层输出特征图的数目,然后对深度卷积神经网络的卷积层进行逐层分解以减少其计算量;S3:采用深度卷积神经网络剪枝的策略,去除深度卷积神经网络的卷积层以及全连接层的冗余连接以减少存储量;S4:对深度卷积神经网络各层编写网络的前向代码。具体来说,先设计出一个深度卷积神经网络进行训练,得到一个初始的模型,然后根据各个卷积输入输出的大小以及卷积核大小和加速的倍数,从而计算出各个要低秩分解的卷积层分解后中间层特征图的输出,再依据我们提出逐层分解的策略,对深度卷积神经网络进行逐层训练,当对深度卷积神经网络进行低秩分解之后,然后再对深度卷积神经网络各层砍掉其冗余的连接,随后对这层的参数进行聚类,进一步得到较大的压缩倍数,再对深度卷积神经网络进行微调,最后对整个深度卷积神经网络进行前向代码的编写。
以下分别对本发明的主要步骤进行详细说明。
步骤S1:设计和训练出一个用于脱机手写汉字的深度卷积神经网络。
S11:设计深度卷积神经网络模型。
在本发明中,设置的深度卷积神经网络模型结构,其输入为1×96×96,其一共包含五个卷积层,每个卷积层的卷积核大小均为3×3,卷积的步长设为1且在特征图的四周均有加一的补全,这可以使得特征图经过卷积操作后大小不发生变化;其包含四个最大池化层,其中池化核的大小3×3,其步长为2,每经过依次池化之后特征图的宽高均将减半;包含一个全连接层,其输出神经元的个数为1024;最后是一个输出层,输出3755类;其中值得说明的是,在每个卷积层和全连接层后面均接有批归一化层以及采用PReLU作为激活函数。初始网络的整体结构表示为:
Input-96C3-MP3-128C3-MP3-160C3-MP3-256C3-256C3-MP3-384C3-384C3-MP3-1024FC-Output
S2:对设计好的深度卷积神经网络进行训练。
训练时做分类问题,采用随机梯度下降法对深度卷积神经网络进行训练,训练时包括前向传播和反向传播两个步骤,前向网络传播网络的误差,反向传播对各个层的参数进行更新,对深度卷积神经网络的参数不断进行优化。在进行训练时,每训练一万次时,都会用此时模型将测试集的数据全测试一遍,最后取测试时获得最高结果的模型保持下来。
步骤S2:根据所需加速的倍数,计算低秩分解后各个层第一个卷积层输出特征图的数目。
S21:通过已知低秩分解之前卷积层的计算复杂度以及需要加速的倍数,来计算低秩分解之后第一个卷积层输出特征图的数目。
原始的卷积过程如图3所示,可知某卷积层的输入输出特征图为与中C和N为输入与输出特征图的数目,H与W为输入特征图的高与宽,H′和W′为输出特征图的高和宽,卷积核为一个四维向量其中卷积核的大小为K×K,由卷积的定义可知,有
其计算复杂度为:O(CNK2H′W′)。
经过低秩分解之后,如图4所示,将输入特征图与卷积变成,输入特征图与卷积后,,其中D为该层输出特征图的数目,有
其计算复杂度为:O(CDKH′W)
得到的与进行卷积,又有
其计算复杂度为:O(NDKH′W′),所以低秩分解之后的总计算复杂度为:O(DKH′(NW′+CW))。
所以,如果我们想对某层的加速x倍,D的值应该被设置为:
一般来说,由于深度卷积神经网络第一个卷积层的冗余度是较小的,计算量也不是很大,所以我们从第二个卷积层开始,根据公式(4),计算需要低秩分解层D的值。
S22:对整个网络进行低秩分解训练。
传统的低秩分解策略如图5所示,通过固定原始的第一个卷积层和第二个卷积层的参数,通过欧式损失函数,来学习分解后低秩层的参数,在这种训练方式中,完全不需要使用原始数据中的标签信息,而仅仅是拿原始网络第二层的输出作为监督信号。我们提出的分解策略对原始的策略提出了改进,具体如图6所示,在我们训练策略之中,如图5所示,依旧拿原始数据的标签作为监督信号,对深度卷积神经网络进行训练。
对深度卷积神经网络的第二层按照如图6所示的方式进行训练后,在对第三个卷积的分解也依次按照如图6所示的方式进行训练,此时,我们将各个训练好的第二个卷积层的参数依旧不固定住。按照这种方式进行下去,直到深度卷积神经网络的最后一个卷积层。
S23:逐层低秩分解之后在网络进行微调。
显然,由我们的低秩分解策略可知,由于在低秩分解卷积层时,是从第二个卷积开始进行低秩分解直到最后一个卷积层,第一个卷积层和全连接层以及输出层的参数始终是固定住的,所以当把所有需要低秩分解的层进行低秩分解之后,在用之前保存下来各个层的参数对网络进行初始化,对网络重新进行训练,进一步提高网络的识别率,达到微调的效果。
步骤S3:通过网络剪枝的策略,去除深度卷积神经网络的卷积层以及全连接层的冗余连接以减少存储量。
S31:对于已经低秩分解后的深度卷积神经网络模型进行再训练,去砍掉深度卷积神经网络中的冗余连接。
当深度卷积神经网络进行低秩分解之后,为了逐渐找到深度卷积神经网络中各层的冗余连接,在以往的的深度卷积神经网络剪枝方法中,他们都是对每层设定一个固定的阈值,其基于该层连接权值绝对值的均值,以及权值本身的标准差的大小定义可定义可知,显然,其阈值可以表示为
根据这个阈值,将每一层里面低于这个阈值的权值砍掉。我们认为,这种做法会让网络中的连接一开始就大量被砍去,如果控制得不好这样会使得整个网络的精度度急剧下降,会使网络的准确度很难恢复回来。所以,如图7所示,在我们的策略中,每次迭代中只去除该层中一些权值小于某一动态阈值的连接,而且这个阈值是逐渐缓慢增长的,直到某一网络层中去除的连接数占该层原始连接数的比例达到预设的值时,固定此时的该层的动态阈值,对网络进行继续训练,当训练次数达到最大时,停止训练。
S32:对深度卷积神经网络各层的剩余连接的权值进行k-means聚类。
对每一层剩余连接的权值进行k-means聚类的步骤为:1、线性初始化聚类中心,也就是聚类中心为在输入数据的最小值和最大值的区间上等间隔地采样;2、计算各个样本点到聚类中心的欧式距离;3、根据2得到每个样本点距离最近的聚类中心,并将各样本点分配给与其距离最近的聚类中心;4、将各聚类中心移动到分配给该聚类中心的样本点的重心处;5、重复2~4直至聚类中心不再改变,停止。
S33:对聚类所得的结果进行微调。
在训练过程中对聚类中心进行微调的方法为,在深度卷积神经网络损失值进行反向传播时,将属于同一个聚类中心的连接的梯度值相加得到其和,这样每一个聚类中心都有一个与之相对应的梯度加和值,在将各聚类中心的值减去与其相对应的梯度加和值与此时网络学习率的乘积;将各网络连接的权值更新为该连接所属聚类中心的值,重复上述步骤直到网络训练收敛,停止训练。
S34:对深度卷积神经网络砍掉连接聚类完成的层的参数进行编码。
各网络层连接包含已经去除的连接的权值,已去除的网络连接的权值为0,改进的CSR编码是指在存储非零值的位置时,用相对前一个非零值的位移来代替相对行首的位移,并当相对位移超过2k时,在该位置补0,并视此位置为非零值的位置,其他与标准CSR编码相同,并且当聚类之后,每个非零的位置可以不用存的32位浮点数,可以直接存聚类中心的便签,进一步减少存储量。
步骤S4:编写网络的前向代码。
S41:针对卷积层的前向代码编写。
针对卷积层来说,经过仔细的分析,由于其存在大量的点乘操作,采用直接计算的方法计算对其进行计算速度很慢。在这里,我们采用im2col算法,将计算量较大的卷积计算转为为矩阵相乘的计算,然后采用经过数学上优化过的矩阵相乘库,对其进行优化,这样一来,大幅减少其计算时间,当卷积层的参数足够稀疏之后,就可以采用基础线性代数子程序库的稀疏矩阵与非稀疏矩阵的乘法进行计算;
S42:针对池化层的前向代码编写。
针对池化层来说,由于我们采用的是最大池化层,其计算较为简单,主要的计算为在几个值中找到最大值,由于存在频繁的读数据和写数据操作,故直接采用循环展开的策略;
S43:针对全连接层的前向代码编写。
针对全连接层来说,由于是一个列向量和一个矩阵的相乘,故直接采用基础线性代数子程序库的矩阵和向量的乘法,当全连接层的参数稀疏到一定程度后,就可以采用基础线性代数子程序库中的稀疏矩阵和向量的乘法。
本发明采用脱机汉字手写数据库CASIA-HWDB1.0与CASIA-HWDB1.1作为训练集,off-ICDAR2013作为测试集,初始深度卷积神经网络取得了97.30%,采用低秩分解策略将网络计算量下降四倍之后,在采用网络剪枝计算将存储量下降12倍后,深度卷积神经网络依旧取得了97.09%的结果,仅仅下降了0.21%。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (6)
1.用于手写汉字识别的深度卷积神经网络的加速压缩方法,其特征在于,包括步骤
S1:构建并训练出一个用于手写汉字识别的深度卷积神经网络;
S2:采用低秩分解的策略,对所述深度卷积神经网络的卷积层进行逐层分解训练以减少计算量;
S3:采用网络剪枝的策略,去除所述深度卷积神经网络的卷积层以及全连接层的冗余连接以减少存储量;
S4:对所述深度卷积神经网络前向代码进行编写。
2.如权利要求1所述的用于手写汉字识别的深度卷积神经网络的加速压缩方法,其特征在于,步骤S1包括步骤
S11:设计所述深度卷积神经网络的结构,设置卷积层、池化层和全连接层参数,选取激活函数;
S12:将训练集的数据作为深度卷积神经网络的输入,采用随机梯度下降法对深度卷积神经网络进行训练,当深度卷积神经网络在训练集上的误差完全收敛时,终止训练,保存深度卷积神经网络各个层的参数。
3.如权利要求2所述的用于手写汉字识别的深度卷积神经网络的加速压缩方法,其特征在于,步骤S11中每个卷积层与激活函数的之间以及第一个全连接层与激活函数之间添加有批归一化层,所述激活函数采用PReLU。
4.如权利要求1所述的用于手写汉字识别的深度卷积神经网络的加速压缩方法,其特征在于,步骤S2包括步骤
S21:通过已知低秩分解之前卷积层的计算复杂度和需要加速的倍数,计算各个低秩分解之后第一个卷积层输出特征图的数目;
S22:对整个深度卷积神经网络进行逐层低秩分解训练;
S23:对深度卷积神经网络进行微调。
5.如权利要求1所述的用于手写汉字识别的深度卷积神经网络的加速压缩方法,其特征在于,步骤S3包括步骤
S31:对已经低秩分解后的深度卷积神经网络模型进行再训练,去掉网络中的冗余连接;
S32:对深度卷积神经网络的各层的剩余连接的权值进行k-means聚类;
S33:对聚类所得的结果进行微调;
S34:对深度卷积神经网络的层参数进行编码。
6.如权利要求1所述的用于手写汉字识别的深度卷积神经网络的加速压缩方法,其特征在于,步骤S4包括步骤
S41:编写卷积层的前向代码;
S42:编写池化层的前向代码;
S43:编写全连接层的前向代码。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710037712.4A CN106919942B (zh) | 2017-01-18 | 2017-01-18 | 用于手写汉字识别的深度卷积神经网络的加速压缩方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710037712.4A CN106919942B (zh) | 2017-01-18 | 2017-01-18 | 用于手写汉字识别的深度卷积神经网络的加速压缩方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106919942A true CN106919942A (zh) | 2017-07-04 |
CN106919942B CN106919942B (zh) | 2020-06-26 |
Family
ID=59454003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710037712.4A Active CN106919942B (zh) | 2017-01-18 | 2017-01-18 | 用于手写汉字识别的深度卷积神经网络的加速压缩方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106919942B (zh) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609598A (zh) * | 2017-09-27 | 2018-01-19 | 武汉斗鱼网络科技有限公司 | 图像鉴别模型训练方法、装置及可读存储介质 |
CN107944555A (zh) * | 2017-12-07 | 2018-04-20 | 广州华多网络科技有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
CN107967516A (zh) * | 2017-10-12 | 2018-04-27 | 中科视拓(北京)科技有限公司 | 一种基于迹范数约束的神经网络的加速与压缩方法 |
CN108038546A (zh) * | 2017-12-29 | 2018-05-15 | 百度在线网络技术(北京)有限公司 | 用于压缩神经网络的方法和装置 |
CN108985348A (zh) * | 2018-06-25 | 2018-12-11 | 西安理工大学 | 基于卷积神经网络的书法风格识别方法 |
CN109034371A (zh) * | 2018-06-27 | 2018-12-18 | 北京文安智能技术股份有限公司 | 一种深度学习模型推理期加速方法、装置及系统 |
CN109359574A (zh) * | 2018-09-30 | 2019-02-19 | 宁波工程学院 | 基于信道级联的广域视场行人检测方法 |
CN109389208A (zh) * | 2017-08-09 | 2019-02-26 | 上海寒武纪信息科技有限公司 | 数据的量化装置及量化方法 |
CN109389209A (zh) * | 2017-08-09 | 2019-02-26 | 上海寒武纪信息科技有限公司 | 处理装置及处理方法 |
CN109389210A (zh) * | 2017-08-09 | 2019-02-26 | 上海寒武纪信息科技有限公司 | 处理方法和处理装置 |
CN109409518A (zh) * | 2018-10-11 | 2019-03-01 | 北京旷视科技有限公司 | 神经网络模型处理方法、装置及终端 |
CN109522949A (zh) * | 2018-11-07 | 2019-03-26 | 北京交通大学 | 目标识别模型建立方法及装置 |
CN109598340A (zh) * | 2018-11-15 | 2019-04-09 | 北京知道创宇信息技术有限公司 | 卷积神经网络的裁剪方法、装置及存储介质 |
WO2019080483A1 (zh) * | 2017-10-23 | 2019-05-02 | 北京深鉴智能科技有限公司 | 利用非均匀量化和查找表加速神经网络计算的方法和系统 |
CN109871949A (zh) * | 2017-12-22 | 2019-06-11 | 泓图睿语(北京)科技有限公司 | 卷积神经网络加速器及加速方法 |
WO2019127362A1 (zh) * | 2017-12-29 | 2019-07-04 | 清华大学 | 神经网络模型分块压缩方法、训练方法、计算装置及系统 |
CN110222693A (zh) * | 2019-06-03 | 2019-09-10 | 第四范式(北京)技术有限公司 | 构建字符识别模型与识别字符的方法和装置 |
CN110533157A (zh) * | 2018-05-23 | 2019-12-03 | 华南理工大学 | 一种基于svd和剪枝用于深度循环神经网络的压缩方法 |
CN110533043A (zh) * | 2018-05-23 | 2019-12-03 | 华南理工大学 | 基于svd的用于手写汉字识别的循环神经网络的加速方法 |
CN110969240A (zh) * | 2019-11-14 | 2020-04-07 | 北京达佳互联信息技术有限公司 | 一种深度卷积神经网络的剪枝方法、装置、设备及介质 |
CN111079781A (zh) * | 2019-11-07 | 2020-04-28 | 华南理工大学 | 基于低秩与稀疏分解的轻量化卷积神经网络图像识别方法 |
CN111105007A (zh) * | 2018-10-26 | 2020-05-05 | 中国科学院半导体研究所 | 用于目标检测的深度卷积神经网络的压缩加速方法 |
CN111340225A (zh) * | 2020-02-28 | 2020-06-26 | 中云智慧(北京)科技有限公司 | 一种基于深度卷积神经网络模型压缩和加速方法 |
CN111598218A (zh) * | 2020-05-08 | 2020-08-28 | Oppo广东移动通信有限公司 | 基于卷积神经网络的数据处理方法和装置、存储介质 |
CN111683107A (zh) * | 2020-08-14 | 2020-09-18 | 北京东方通软件有限公司 | 面向互联网的安全审计方法和系统 |
CN112329744A (zh) * | 2021-01-04 | 2021-02-05 | 太极计算机股份有限公司 | 一种图片文字识别方法和装置 |
CN112686345A (zh) * | 2020-12-31 | 2021-04-20 | 江南大学 | 一种基于注意力机制的脱机英文手写识别方法 |
CN112784625A (zh) * | 2019-11-04 | 2021-05-11 | 广东毓秀科技有限公司 | 一种行人重识别模型的加速与压缩的方法 |
CN113221908A (zh) * | 2021-06-04 | 2021-08-06 | 深圳龙岗智能视听研究院 | 一种基于深度卷积神经网络的数字识别方法及设备 |
TWI779475B (zh) * | 2020-09-29 | 2022-10-01 | 中國商格蘭菲智能科技有限公司 | 圖形處理器及其加速方法 |
US11710041B2 (en) | 2017-05-23 | 2023-07-25 | Shanghai Cambricon Information Technology Co., Ltd | Feature map and weight selection method and accelerating device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105205448A (zh) * | 2015-08-11 | 2015-12-30 | 中国科学院自动化研究所 | 基于深度学习的文字识别模型训练方法和识别方法 |
CN106127297A (zh) * | 2016-06-02 | 2016-11-16 | 中国科学院自动化研究所 | 基于张量分解的深度卷积神经网络的加速与压缩方法 |
US20160358070A1 (en) * | 2015-06-04 | 2016-12-08 | Samsung Electronics Co., Ltd. | Automatic tuning of artificial neural networks |
CN106326985A (zh) * | 2016-08-18 | 2017-01-11 | 北京旷视科技有限公司 | 神经网络训练方法和装置及数据处理方法和装置 |
-
2017
- 2017-01-18 CN CN201710037712.4A patent/CN106919942B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160358070A1 (en) * | 2015-06-04 | 2016-12-08 | Samsung Electronics Co., Ltd. | Automatic tuning of artificial neural networks |
CN105205448A (zh) * | 2015-08-11 | 2015-12-30 | 中国科学院自动化研究所 | 基于深度学习的文字识别模型训练方法和识别方法 |
CN106127297A (zh) * | 2016-06-02 | 2016-11-16 | 中国科学院自动化研究所 | 基于张量分解的深度卷积神经网络的加速与压缩方法 |
CN106326985A (zh) * | 2016-08-18 | 2017-01-11 | 北京旷视科技有限公司 | 神经网络训练方法和装置及数据处理方法和装置 |
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11710041B2 (en) | 2017-05-23 | 2023-07-25 | Shanghai Cambricon Information Technology Co., Ltd | Feature map and weight selection method and accelerating device |
US11727276B2 (en) | 2017-05-23 | 2023-08-15 | Shanghai Cambricon Information Technology Co., Ltd | Processing method and accelerating device |
US11907844B2 (en) | 2017-05-23 | 2024-02-20 | Shanghai Cambricon Information Technology Co., Ltd | Processing method and accelerating device |
CN109389210B (zh) * | 2017-08-09 | 2021-06-18 | 上海寒武纪信息科技有限公司 | 处理方法和处理装置 |
CN109389208A (zh) * | 2017-08-09 | 2019-02-26 | 上海寒武纪信息科技有限公司 | 数据的量化装置及量化方法 |
CN109389209A (zh) * | 2017-08-09 | 2019-02-26 | 上海寒武纪信息科技有限公司 | 处理装置及处理方法 |
CN109389210A (zh) * | 2017-08-09 | 2019-02-26 | 上海寒武纪信息科技有限公司 | 处理方法和处理装置 |
CN107609598A (zh) * | 2017-09-27 | 2018-01-19 | 武汉斗鱼网络科技有限公司 | 图像鉴别模型训练方法、装置及可读存储介质 |
CN107967516A (zh) * | 2017-10-12 | 2018-04-27 | 中科视拓(北京)科技有限公司 | 一种基于迹范数约束的神经网络的加速与压缩方法 |
WO2019080483A1 (zh) * | 2017-10-23 | 2019-05-02 | 北京深鉴智能科技有限公司 | 利用非均匀量化和查找表加速神经网络计算的方法和系统 |
CN107944555B (zh) * | 2017-12-07 | 2021-09-17 | 广州方硅信息技术有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
CN107944555A (zh) * | 2017-12-07 | 2018-04-20 | 广州华多网络科技有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
CN109871949A (zh) * | 2017-12-22 | 2019-06-11 | 泓图睿语(北京)科技有限公司 | 卷积神经网络加速器及加速方法 |
WO2019127362A1 (zh) * | 2017-12-29 | 2019-07-04 | 清华大学 | 神经网络模型分块压缩方法、训练方法、计算装置及系统 |
CN108038546A (zh) * | 2017-12-29 | 2018-05-15 | 百度在线网络技术(北京)有限公司 | 用于压缩神经网络的方法和装置 |
CN110533157A (zh) * | 2018-05-23 | 2019-12-03 | 华南理工大学 | 一种基于svd和剪枝用于深度循环神经网络的压缩方法 |
CN110533043A (zh) * | 2018-05-23 | 2019-12-03 | 华南理工大学 | 基于svd的用于手写汉字识别的循环神经网络的加速方法 |
CN110533043B (zh) * | 2018-05-23 | 2022-04-08 | 华南理工大学 | 基于svd的用于手写汉字识别的循环神经网络的加速方法 |
CN108985348B (zh) * | 2018-06-25 | 2019-06-14 | 西安理工大学 | 基于卷积神经网络的书法风格识别方法 |
CN108985348A (zh) * | 2018-06-25 | 2018-12-11 | 西安理工大学 | 基于卷积神经网络的书法风格识别方法 |
CN109034371A (zh) * | 2018-06-27 | 2018-12-18 | 北京文安智能技术股份有限公司 | 一种深度学习模型推理期加速方法、装置及系统 |
CN109359574B (zh) * | 2018-09-30 | 2021-05-14 | 宁波工程学院 | 基于信道级联的广域视场行人检测方法 |
CN109359574A (zh) * | 2018-09-30 | 2019-02-19 | 宁波工程学院 | 基于信道级联的广域视场行人检测方法 |
CN109409518A (zh) * | 2018-10-11 | 2019-03-01 | 北京旷视科技有限公司 | 神经网络模型处理方法、装置及终端 |
CN111105007A (zh) * | 2018-10-26 | 2020-05-05 | 中国科学院半导体研究所 | 用于目标检测的深度卷积神经网络的压缩加速方法 |
CN111105007B (zh) * | 2018-10-26 | 2024-04-12 | 中国科学院半导体研究所 | 用于目标检测的深度卷积神经网络的压缩加速方法 |
CN109522949A (zh) * | 2018-11-07 | 2019-03-26 | 北京交通大学 | 目标识别模型建立方法及装置 |
CN109598340A (zh) * | 2018-11-15 | 2019-04-09 | 北京知道创宇信息技术有限公司 | 卷积神经网络的裁剪方法、装置及存储介质 |
CN110222693A (zh) * | 2019-06-03 | 2019-09-10 | 第四范式(北京)技术有限公司 | 构建字符识别模型与识别字符的方法和装置 |
CN110222693B (zh) * | 2019-06-03 | 2022-03-08 | 第四范式(北京)技术有限公司 | 构建字符识别模型与识别字符的方法和装置 |
CN112784625A (zh) * | 2019-11-04 | 2021-05-11 | 广东毓秀科技有限公司 | 一种行人重识别模型的加速与压缩的方法 |
CN111079781A (zh) * | 2019-11-07 | 2020-04-28 | 华南理工大学 | 基于低秩与稀疏分解的轻量化卷积神经网络图像识别方法 |
CN111079781B (zh) * | 2019-11-07 | 2023-06-23 | 华南理工大学 | 基于低秩与稀疏分解的轻量化卷积神经网络图像识别方法 |
CN110969240A (zh) * | 2019-11-14 | 2020-04-07 | 北京达佳互联信息技术有限公司 | 一种深度卷积神经网络的剪枝方法、装置、设备及介质 |
CN110969240B (zh) * | 2019-11-14 | 2022-12-09 | 北京达佳互联信息技术有限公司 | 一种深度卷积神经网络的剪枝方法、装置、设备及介质 |
CN111340225A (zh) * | 2020-02-28 | 2020-06-26 | 中云智慧(北京)科技有限公司 | 一种基于深度卷积神经网络模型压缩和加速方法 |
CN111598218A (zh) * | 2020-05-08 | 2020-08-28 | Oppo广东移动通信有限公司 | 基于卷积神经网络的数据处理方法和装置、存储介质 |
CN111598218B (zh) * | 2020-05-08 | 2024-04-16 | Oppo广东移动通信有限公司 | 基于卷积神经网络的图像数据处理方法和装置、存储介质 |
CN111683107A (zh) * | 2020-08-14 | 2020-09-18 | 北京东方通软件有限公司 | 面向互联网的安全审计方法和系统 |
TWI779475B (zh) * | 2020-09-29 | 2022-10-01 | 中國商格蘭菲智能科技有限公司 | 圖形處理器及其加速方法 |
CN112686345A (zh) * | 2020-12-31 | 2021-04-20 | 江南大学 | 一种基于注意力机制的脱机英文手写识别方法 |
CN112686345B (zh) * | 2020-12-31 | 2024-03-15 | 江南大学 | 一种基于注意力机制的脱机英文手写识别方法 |
CN112329744B (zh) * | 2021-01-04 | 2021-04-06 | 太极计算机股份有限公司 | 一种图片文字识别方法和装置 |
CN112329744A (zh) * | 2021-01-04 | 2021-02-05 | 太极计算机股份有限公司 | 一种图片文字识别方法和装置 |
CN113221908A (zh) * | 2021-06-04 | 2021-08-06 | 深圳龙岗智能视听研究院 | 一种基于深度卷积神经网络的数字识别方法及设备 |
CN113221908B (zh) * | 2021-06-04 | 2024-04-16 | 深圳龙岗智能视听研究院 | 一种基于深度卷积神经网络的数字识别方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN106919942B (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106919942A (zh) | 用于手写汉字识别的深度卷积神经网络的加速压缩方法 | |
CN108121975B (zh) | 一种联合原始数据和生成数据的人脸识别方法 | |
Panda et al. | Unsupervised regenerative learning of hierarchical features in spiking deep networks for object recognition | |
CN110909801B (zh) | 基于卷积神经网络的数据分类方法、系统、介质及设备 | |
CN107169504B (zh) | 一种基于扩展非线性核残差网络的手写字符识别方法 | |
CN108319988A (zh) | 一种用于手写汉字识别的深度神经网络的加速方法 | |
CN106503654A (zh) | 一种基于深度稀疏自编码网络的人脸情感识别方法 | |
CN106203363A (zh) | 人体骨架运动序列行为识别方法 | |
CN109255381B (zh) | 一种基于二阶vlad稀疏自适应深度网络的图像分类方法 | |
CN113627376B (zh) | 基于多尺度密集连接深度可分离网络的人脸表情识别方法 | |
CN108334945A (zh) | 深度神经网络的加速与压缩方法及装置 | |
CN110490298A (zh) | 基于膨胀卷积的轻量化深度卷积神经网络模型 | |
CN108960301A (zh) | 一种基于卷积神经网络的古彝文识别方法 | |
CN109993302A (zh) | 基于知识迁移的卷积神经网络通道自选择压缩与加速方法 | |
CN110852326A (zh) | 一种手写体版面分析和多风格古籍背景融合方法 | |
CN114596839B (zh) | 一种端到端语音识别方法、系统及存储介质 | |
CN105260736A (zh) | 基于归一化非负稀疏编码器的图像快速特征表示方法 | |
James et al. | Deep learning | |
Ma | Recognition of handwritten digit using convolutional neural network | |
CN110309510A (zh) | 一种基于c-s和gru的看画题诗方法 | |
Jiang et al. | Class-aware pruning for efficient neural networks | |
CN107506351B (zh) | 一种基于字符卷积网络的推特语义相似性分析方法 | |
CN113361589A (zh) | 基于迁移学习与知识蒸馏的珍稀濒危植物叶片识别方法 | |
CN113673325B (zh) | 一种多特征人物情绪识别方法 | |
CN115966004A (zh) | 基于注意力指导轻量级网络的人脸关键点检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |