CN111126602A - 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法 - Google Patents

一种基于卷积核相似性剪枝的循环神经网络模型压缩方法 Download PDF

Info

Publication number
CN111126602A
CN111126602A CN201911355879.0A CN201911355879A CN111126602A CN 111126602 A CN111126602 A CN 111126602A CN 201911355879 A CN201911355879 A CN 201911355879A CN 111126602 A CN111126602 A CN 111126602A
Authority
CN
China
Prior art keywords
neural network
pruning
network model
convolution kernel
recurrent neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911355879.0A
Other languages
English (en)
Inventor
王曰海
李忻瑶
奚永新
杨建义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201911355879.0A priority Critical patent/CN111126602A/zh
Publication of CN111126602A publication Critical patent/CN111126602A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种基于卷积核相似性剪枝的循环神经网络模型压缩方法,属于计算机电子信息技术领域,该方法包括,将预训练循环神经网络模型载入压缩循环神经网络中进行训练,得到权重矩阵初始化的循环神经网络模型;计算循环神经网络模型中每个卷积核的L2范数并排序,选取范数修剪率范围内的卷积核进行剪枝;计算剪枝后的预训练循环神经网络模型的卷积核的权值中心,选取相似性修剪率P2范围内的卷积核进行修剪后对卷积核对应的权重矩阵进行梯度更新,对更新后的权重矩阵中的参数进行剪枝,得到压缩后的循环神经网络模型。本发明提供的循环神经网络模型压缩方法,在降低剪枝过程中的精确度损失的同时,有效地压缩大型循环神经网络模型。

Description

一种基于卷积核相似性剪枝的循环神经网络模型压缩方法
技术领域
本发明涉及计算机及电子信息技术领域,具体涉及一种基于卷积核相似性剪枝的循环神经网络模型压缩方法。
背景技术
循环神经网络(RNN)具有处理顺序数据的能力,大大提高了语音识别、自然语言处理和机器翻译准确性,然而,循环神经网络的效果提升是以高计算复杂性为代价的,对于具有有限计算资源的嵌入式移动设备来说要求过高。因而,循环神经网络模型的推广部署受到了推理性能、功耗和内存要求的限制。
智能手机,平板电脑和笔记本电脑等所有普及设备具有有限的内存和计算资源,很难处理大型复杂的RNN模型。然而,在移动端直接应用深度学习网络,基本要求之一是模型推理要小而快,小可以使得整个应用的存储空间减小,而快可以提高应用的实时性,要求模型推理速度在可接受范围内,同时也可以使应用在一些低配设备上具有更好的效果。
模型压缩是一个蓬勃发展的领域,通过对模型的网络结构或者权重表示方式进行简化,减少深度学习模型的计算量和内存需求,在尽量少精确度损失的前提下,解决普及设备上由于有限的内存和计算资源,很难处理大型复杂的RNN模型的问题。
现有的卷积神经网络压缩与加速的方法大致分为三种:剪枝,量化和低秩分解;常用的剪枝方法是指通过一定的规则修剪网络中不重要的权重,主要分为非结构化剪枝和结构化剪枝两种;其中,非结构化剪枝是指独立修剪权重,对精度影响较小;非结构化剪枝在推理预测时是硬件不友好的,容易造成硬件设备的损伤;而结构化稀疏剪枝方法提出了内部稀疏结构,剪枝的同时将循环单元内所有基础结构的尺寸减小一个,从而始终保持尺寸一致性,减小模型尺寸,加快推理速度,但由于结构化稀疏剪枝方法的稀疏结构非常粗糙,因此很难在不降低精度的情况下推出高稀疏性。
大多数剪枝方法是基于不同的规则,加入正则约束,在反向传播的过程中约束参数,进行稀疏;在设计剪枝规则时,现有的剪枝策略大多是基于范数剪枝及其变体,更多考虑的是卷积核的重要性,理想地认为范数分布较为规则,标准差足够大,没有更多考虑卷积核之间的相似性,造成剪枝过程中的精确度损失较大。
发明内容
本发明提供了一种基于卷积核相似性剪枝的循环神经网络模型压缩方法,该方法在剪枝过程中同时考虑了卷积核的范数重要性标准与卷积核间的相似性标准,为每个卷积核设置一个掩膜矩阵,根据所述的范数重要性标准与积核间的相似性标准设置掩膜矩阵的值,使得参数可选择地参与到网络计算中,同时不改变网络的本质内容,使得参数可以在可能的需要时被恢复,网络修剪也更为可控。
一种基于卷积核相似性剪枝的循环神经网络模型压缩方法,包括:
步骤1、将预训练循环神经网络模型载入压缩循环神经网络中进行训练,设置预训练循环神经网络模型的参数与压缩循环神经网络中的参数一致,得到权重矩阵初始化的循环神经网络模型。
所述的参数为数据集、配置参数、范数修剪率P1及相似性修剪率P2。
步骤2、计算循环神经网络模型中每个卷积核的L2范数并根据L2范数对卷积核进行排序,选取范数修剪率P1范围内的卷积核进行剪枝,得到剪枝后的循环神经网络模型。
所述的选取范数修剪率P1范围内的卷积核的计算公式为公式(1)所示:
n=P1×N (1)
其中,n为范数排序小的卷积核的个数;P1为范数修剪率,1>P1>0;N为循环神经网络模型所有卷积核的个数。
优选的,为了避免被零除,所述的L2范数中添加了一个微小常数∈,具体为公式(2)所示:
Figure BDA0002335908290000021
其中‖wk2为定义的第k个卷积核的L2范数,wkj为第k个卷积核的第j个权重。
所述的选取范数修剪率P1范围内的卷积核进行剪枝,包括:
步骤2.1、为循环神经网络模型的每个卷积核分配一个掩膜矩阵,所述的掩膜矩阵是由卷积核中的每个参数对应一个掩码(mask)组成;所述的掩码的区间为mask∈{0,1},mask初始值为1。
步骤2.2对范数最小的卷积核中的参数的掩码进行排序,将排序小的参数对应的mask设置为0,其余参数所对应的mask为1,mask为0的参数在下轮迭代中不发挥作用。
所述的排序为采取A-Res加权随机采样的方式获得排序ki;所述的排序ki计算公式为式(3)所示:
Figure BDA0002335908290000031
其中,ui=rand(0,1);wi为mask对应参数。
步骤2.3、对mask为0的参数进行剪枝更新,实现对范数最小的卷积核进行剪枝,得到剪枝后的循环神经网络模型。
步骤3、计算步骤2中得到的剪枝后的预训练循环神经网络模型的卷积核的权值中心,选取相似性修剪率P2范围内权值中心最接近的卷积核进行修剪,得到卷积核相似性剪枝后的循环神经网络模型。
所述的选取相似性修剪率P2范围内权值中心最接近的卷积核的计算公式为公式(4)所示:
m=P2×M (4)
其中,m为权值中心最接近的卷积核的个数;P2为范数修剪率,1>P2>0;M为循环神经网络模型所有卷积核的个数。
所述的权值中心为欧氏距离中心;所述的欧氏距离中心w*的计算公式为式(5)所示:
Figure BDA0002335908290000032
w为可变量,wi为相应卷积核的第i个权值,求得某一确定w,使得∑i‖w-wi2值最小,则此w为所求矩阵的权值中心w*
步骤4、对步骤3中得到的循环神经网络模型中的卷积核对应的权重矩阵进行梯度更新,得到权重矩阵更新后的循环神经网络模型。
若掩码矩阵中的参数对应的mask为0,则更新后的权重矩阵中的参数为0;若掩码矩阵中的参数对应的mask为1,则更新后的权重矩阵中的参数保持不变。
步骤5、对步骤4得到的循环神经网络模型中更新后的权重矩阵中的参数进行剪枝,得到压缩后的循环神经网络模型。
将步骤4中更新后的权重矩阵中mask为0的参数进行剪枝,得到实质最小的压缩后的循环神经网络模型。
发明具有以下的优点:
1、本发明提供的基于卷积核相似性剪枝的循环神经网络模型压缩方法,在降低剪枝过程中的精确度损失的同时,有效地压缩大型循环神经网络模型。
2、本发明提供的基于卷积核相似性剪枝的循环神经网络模型压缩方法为粗粒剪枝,保持了权重矩阵的规则性,对于硬件的快速计算库是友好的,可以有效提升应用模型时的推理速度。
3、本发明提供的基于卷积核相似性剪枝的循环神经网络模型压缩方法,探索了较少人关注的循环神经网络冗余参数问题,使得循环神经网络可以更好的应用到移动端设备中运行。
附图说明
图1为本发明中循环神经网络模型压缩方法的训练流程图。
图2为本发明中循环神经网络模型的基本结构图。
图3为本发明中循环神经网络模型压缩方法中L2范数示意图。
图4为本发明中循环神经网络模型压缩方法中相似性原则示意图。
图5为本发明中循环神经网络模型压缩方法的准确率示意图;其中,(a)图为训练损失示意图;(b)图为训练误差示意图。
具体实施方式
下面结合具体实施例对本发明进行进一步说明。
如图1所示,步骤1、将预训练循环神经网络模型载入压缩循环神经网络中进行训练,设置预训练循环神经网络模型的参数与压缩循环神经网络中的参数一致,得到权重矩阵初始化的循环神经网络模型。
准备待压缩的预训练循环神经网络模型设置数据集、配置参数、给定范数修剪率P1及相似性修剪率P2与压缩循环神经网络中参数一致,并将待压缩的预训练循环神经网络模型载入压缩循环神经网络中进行训练。
如图2所示,使用的数据集为WikiText-2英语词库数据,每个词汇还同时保留产生该词汇的原始文章,这尤其适合当需要长时依赖自然语言建模的场景;dropout为0.2,L2范数与基于相似的修剪率均为0.1。
步骤2、计算循环神经网络模型中每个卷积核的L2范数并根据L2范数对卷积核进行排序,选取范数修剪率P1范围内的卷积核进行剪枝,得到剪枝后的循环神经网络模型。
L2范数,又叫“岭回归”(Ridge Regression)、“权值衰减”(weight decay)。这用的很多吧,它的作用是改善过拟合。
过拟合是:模型训练时候的误差很小,但是测试误差很大,也就是说模型复杂到可以拟合到所有训练数据,但在预测新的数据的时候,结果很差。
L2范数是指向量中各元素的平方和然后开根,让L2范数的规则项||W||2最小,可以使得W的每个元素都很小,都接近于0;而越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合现象。
所述的选取范数修剪率P1范围内的卷积核的计算公式为公式(1)所示:
n=P1×N (1)
其中,n为范数排序小的卷积核的个数;P1为范数修剪率,1>P1>0;N为循环神经网络模型所有卷积核的个数。
优选的,为了避免被零除,所述的L2范数中添加了一个微小常数∈,具体为公式(2)所示:
Figure BDA0002335908290000051
其中‖wk2为定义的第k个卷积核的L2范数,wkj为第k个卷积核的第j个权重。
所述的对选取的卷积核进行剪枝,包括:
步骤2.1、为循环神经网络模型的每个卷积核分配一个掩膜矩阵,所述的掩膜矩阵是由卷积核中的每个参数对应一个掩码(mask)组成;所述的掩码的区间为mask∈{0,1},mask初始值为1。
步骤2.2对范数最小的卷积核中的参数的掩码进行排序,将排序小的参数对应的mask设置为0,其余参数所对应的mask为1,mask为0的参数在下轮迭代中不发挥作用。
所述的排序为采取A-Res加权随机采样的方式获得排序ki;所述的排序ki计算公式为式(3)所示:
Figure BDA0002335908290000061
其中,ui=rand(0,1);wi为mask对应参数。
步骤2.3、对mask为0的参数进行剪枝更新,实现对范数最小的卷积核进行剪枝,得到剪枝后的循环神经网络模型。
如图3所示,在循环神经网络训练的每个周期,对每个卷积核计算L2范数并排序,最大K个卷积核的数组索引对应的mask保持为1,其余为0,修剪后更新权重参数。本实验中权重修剪概率为0.9;大部分权重L2范数集中在0处附近,对网络的贡献较小,修剪后对网络精度影响较小。
步骤3、计算步骤2中得到的剪枝后的预训练循环神经网络模型的卷积核的权值中心,选取相似性修剪率P2范围内权值中心最接近的卷积核进行修剪,得到卷积核相似性剪枝后的循环神经网络模型。
所述的选取相似性修剪率P2范围内权值中心最接近的卷积核的计算公式为公式(4)所示:
m=P2×M (4)
其中,m为权值中心最接近的卷积核的个数;P2为范数修剪率,1>P2>0;M为循环神经网络模型所有卷积核的个数。
所述的权值中心为欧氏距离中心;所述的欧氏距离中心w*的计算公式为式(5)所示:
Figure BDA0002335908290000062
w为可变量,wi为相应卷积核的第i个权值,求得某一确定w,使得∑i‖w-wi2值最小,则此w为所求矩阵的权值中心w*
如图4所示,对更新后的权重矩阵计算对应的权值中心相似性并排序,相似性最小的K个值索引对应的mask保持为1,L2范数与相似性修剪后mask仍为1的部分权重保留,其余被修剪掉,本发明中相似性保留率为0.9。
步骤4、对步骤3中得到的循环神经网络模型中的卷积核对应的权重矩阵进行梯度更新,得到权重矩阵更新后的循环神经网络模型。
若掩码矩阵中的参数对应的mask为0,则更新后的权重矩阵中的参数为0;若掩码矩阵中的参数对应的mask为1,则更新后的权重矩阵中的参数保持不变。
步骤5、对步骤4得到的循环神经网络模型中更新后的权重矩阵中的参数进行剪枝,得到压缩后的循环神经网络模型。
将步骤4中更新后的权重矩阵中mask为0的参数进行剪枝,得到实质最小的压缩后的循环神经网络模型。
如图5所示,本发明中循环神经网络模型压缩方法的准确率示意图,在同样的修剪概率下,如(a)图所示,随机修剪训练损失收敛为5.82,推理perplexity为130;如(b)图所示本发明中训练误差收敛为4.68,推理perplexity为107.33,有17.4%的提升。

Claims (7)

1.一种基于卷积核相似性剪枝的循环神经网络模型压缩方法,其特征在于,包括:
步骤1、将预训练循环神经网络模型载入压缩循环神经网络中进行训练,设置预训练循环神经网络模型的参数与压缩循环神经网络中的参数一致,得到权重矩阵初始化的循环神经网络模型;
步骤2、计算循环神经网络模型中每个卷积核的L2范数并根据L2范数对卷积核进行排序,选取范数修剪率P1范围内的卷积核进行剪枝,得到剪枝后的循环神经网络模型;
步骤3、计算步骤2中得到的剪枝后的预训练循环神经网络模型的卷积核的权值中心,选取相似性修剪率P2范围内权值中心最接近的卷积核进行修剪,得到卷积核相似性剪枝后的循环神经网络模型;
步骤4、对步骤3中得到的循环神经网络模型中的卷积核对应的权重矩阵进行梯度更新,得到权重矩阵更新后的循环神经网络模型;
步骤5、对步骤4得到的循环神经网络模型中更新后的权重矩阵中的参数进行剪枝,得到压缩后的循环神经网络模型。
2.根据权利要求1所述的基于卷积核相似性剪枝的循环神经网络模型压缩方法,其特征在于,步骤2中,所述的选取范数修剪率P1范围内的卷积核的计算公式为公式(1)所示:
n=P1×N (1)
其中,n为范数排序小的卷积核的个数;P1为范数修剪率,1>P1>0;N为循环神经网络模型所有卷积核的个数。
3.根据权利要求1所述的基于卷积核相似性剪枝的循环神经网络模型压缩方法,其特征在于,步骤2中,所述的L2范数中添加了一个微小常数∈,具体为公式(2)所示:
Figure FDA0002335908280000011
其中‖wk2为定义的第k个卷积核的L2范数,wkj为第k个卷积核的第j个权重。
4.根据权利要求1所述的基于卷积核相似性剪枝的循环神经网络模型压缩方法,其特征在于,步骤2中,所述的选取范数修剪率P1范围内的卷积核进行剪枝,包括:
步骤2.1、为循环神经网络模型的每个卷积核分配一个掩膜矩阵,所述的掩膜矩阵是由卷积核中的每个参数对应一个掩码组成;所述的掩码的区间为mask∈{0,1},mask初始值为1;
步骤2.2对范数最小的卷积核中的参数的掩码进行排序,将排序小的参数对应的mask设置为0,其余参数所对应的mask为1,mask为0的参数在下轮迭代中不发挥作用;
步骤2.3、对mask为0的参数进行剪枝更新,实现对范数最小的卷积核进行剪枝,得到剪枝后的循环神经网络模型。
5.根据权利要求1所述的基于卷积核相似性剪枝的循环神经网络模型压缩方法,其特征在于,步骤2.2中,所述的排序为采取A-Res加权随机采样的方式获得排序ki;所述的排序ki计算公式为式(3)所示:
Figure FDA0002335908280000021
其中,ui=rand(0,1);wi为mask对应参数。
6.根据权利要求1所述的基于卷积核相似性剪枝的循环神经网络模型压缩方法,其特征在于,步骤3中,所述的选取相似性修剪率P2范围内权值中心最接近的卷积核的计算公式为公式(4)所示:
m=P2×M (4)
其中,m为权值中心最接近的卷积核的个数;P2为范数修剪率,1>P2>0;M为循环神经网络模型所有卷积核的个数。
7.根据权利要求1所述的基于卷积核相似性剪枝的循环神经网络模型压缩方法,其特征在于,步骤3中,所述的权值中心为欧氏距离中心;所述的欧氏距离中心w*的计算公式为式(5)所示:
Figure FDA0002335908280000022
w为可变量,wi为相应卷积核的第i个权值,求得某一确定w,使得∑i‖w-wi2值最小,则此w为所求矩阵的权值中心w*
CN201911355879.0A 2019-12-25 2019-12-25 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法 Pending CN111126602A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911355879.0A CN111126602A (zh) 2019-12-25 2019-12-25 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911355879.0A CN111126602A (zh) 2019-12-25 2019-12-25 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法

Publications (1)

Publication Number Publication Date
CN111126602A true CN111126602A (zh) 2020-05-08

Family

ID=70503571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911355879.0A Pending CN111126602A (zh) 2019-12-25 2019-12-25 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法

Country Status (1)

Country Link
CN (1) CN111126602A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132062A (zh) * 2020-09-25 2020-12-25 中南大学 一种基于剪枝压缩神经网络的遥感图像分类方法
CN112561054A (zh) * 2020-12-03 2021-03-26 中国科学院光电技术研究所 一种基于批量特征热图的神经网络滤波器剪枝方法
CN113033804A (zh) * 2021-03-29 2021-06-25 北京理工大学重庆创新中心 一种面向遥感图像的卷积神经网络压缩方法
WO2021179631A1 (zh) * 2020-09-23 2021-09-16 平安科技(深圳)有限公司 卷积神经网络模型压缩方法、装置、设备及存储介质
CN113554104A (zh) * 2021-07-28 2021-10-26 哈尔滨工程大学 一种基于深度学习模型的图像分类方法
CN113592085A (zh) * 2021-07-06 2021-11-02 厦门路桥信息股份有限公司 一种基于高秩卷积图的核剪枝方法、装置、设备及介质
CN113762505A (zh) * 2021-08-13 2021-12-07 中国电子科技集团公司第三十八研究所 一种卷积神经网络的按通道l2范数聚类剪枝方法
CN117131908A (zh) * 2023-10-20 2023-11-28 华东交通大学 一种基于退火衰减的深度卷积神经网络的压缩方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021179631A1 (zh) * 2020-09-23 2021-09-16 平安科技(深圳)有限公司 卷积神经网络模型压缩方法、装置、设备及存储介质
CN112132062A (zh) * 2020-09-25 2020-12-25 中南大学 一种基于剪枝压缩神经网络的遥感图像分类方法
CN112561054A (zh) * 2020-12-03 2021-03-26 中国科学院光电技术研究所 一种基于批量特征热图的神经网络滤波器剪枝方法
CN113033804A (zh) * 2021-03-29 2021-06-25 北京理工大学重庆创新中心 一种面向遥感图像的卷积神经网络压缩方法
CN113592085A (zh) * 2021-07-06 2021-11-02 厦门路桥信息股份有限公司 一种基于高秩卷积图的核剪枝方法、装置、设备及介质
CN113554104A (zh) * 2021-07-28 2021-10-26 哈尔滨工程大学 一种基于深度学习模型的图像分类方法
CN113762505A (zh) * 2021-08-13 2021-12-07 中国电子科技集团公司第三十八研究所 一种卷积神经网络的按通道l2范数聚类剪枝方法
CN113762505B (zh) * 2021-08-13 2023-12-01 中国电子科技集团公司第三十八研究所 一种卷积神经网络的按通道l2范数聚类剪枝方法
CN117131908A (zh) * 2023-10-20 2023-11-28 华东交通大学 一种基于退火衰减的深度卷积神经网络的压缩方法
CN117131908B (zh) * 2023-10-20 2024-01-30 华东交通大学 一种基于退火衰减的深度卷积神经网络的压缩方法

Similar Documents

Publication Publication Date Title
CN111126602A (zh) 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法
CN109710915B (zh) 复述语句生成方法及装置
US9400955B2 (en) Reducing dynamic range of low-rank decomposition matrices
CN108319599A (zh) 一种人机对话的方法和装置
WO2022042123A1 (zh) 图像识别模型生成方法、装置、计算机设备和存储介质
CN109523014B (zh) 基于生成式对抗网络模型的新闻评论自动生成方法及系统
CN112052948B (zh) 一种网络模型压缩方法、装置、存储介质和电子设备
CN112115267A (zh) 文本分类模型的训练方法、装置、设备及存储介质
CN108319988B (zh) 一种用于手写汉字识别的深度神经网络的加速方法
CN113868366B (zh) 一种面向流数据的在线跨模态检索方法与系统
CN114332545B (zh) 一种基于低比特脉冲神经网络的图像数据分类方法和装置
WO2023098544A1 (zh) 基于局部稀疏约束的结构化剪枝方法和装置
CN109977394A (zh) 文本模型训练方法、文本分析方法、装置、设备及介质
CN109543029A (zh) 基于卷积神经网络的文本分类方法、装置、介质和设备
CN110930996A (zh) 模型训练方法、语音识别方法、装置、存储介质及设备
CN113157919A (zh) 语句文本方面级情感分类方法及系统
CN109145107A (zh) 基于卷积神经网络的主题提取方法、装置、介质和设备
Moriya et al. Evolution-strategy-based automation of system development for high-performance speech recognition
Jiang et al. Deep metric learning based on meta-mining strategy with semiglobal information
Yang et al. Accelerating and compressing LSTM based model for online handwritten Chinese character recognition
CN109902273A (zh) 关键词生成模型的建模方法和装置
CN113870863A (zh) 声纹识别方法及装置、存储介质及电子设备
CN110288002B (zh) 一种基于稀疏正交神经网络的图像分类方法
CN111783688A (zh) 一种基于卷积神经网络的遥感图像场景分类方法
CN112734025B (zh) 基于固定基正则化的神经网络参数稀疏化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200508

RJ01 Rejection of invention patent application after publication