CN110909801B - 基于卷积神经网络的数据分类方法、系统、介质及设备 - Google Patents

基于卷积神经网络的数据分类方法、系统、介质及设备 Download PDF

Info

Publication number
CN110909801B
CN110909801B CN201911173587.5A CN201911173587A CN110909801B CN 110909801 B CN110909801 B CN 110909801B CN 201911173587 A CN201911173587 A CN 201911173587A CN 110909801 B CN110909801 B CN 110909801B
Authority
CN
China
Prior art keywords
matrix
neural network
convolutional neural
data
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911173587.5A
Other languages
English (en)
Other versions
CN110909801A (zh
Inventor
于惠
周钰峰
范胜玉
徐卫志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Normal University
Original Assignee
Shandong Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Normal University filed Critical Shandong Normal University
Priority to CN201911173587.5A priority Critical patent/CN110909801B/zh
Publication of CN110909801A publication Critical patent/CN110909801A/zh
Application granted granted Critical
Publication of CN110909801B publication Critical patent/CN110909801B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种基于卷积神经网络的数据分类方法、系统、介质及设备,对获取的分类数据进行预处理,构建数据集;构建卷积神经网络,所述卷积神经网络中至少包括一个卷积层,用于提取局部特征,所述卷积层对特征矩阵进行压缩,并对所生成的稀疏矩阵在图形处理单元上进行稀疏矩阵向量乘运算,利用数据集中的数据训练卷积神经网络;将待分类数据预处理后输入到已训练好的卷积神经网络模型,输出数据分类结果;本公开通过对卷积层的特征矩阵进行压缩处理,在GPU上并行计算,减少了在计算过程中内存消耗和对于零值的计算,进而减少了神经网络的训练时间和内存消耗。

Description

基于卷积神经网络的数据分类方法、系统、介质及设备
技术领域
本公开涉及数据分类技术领域,特别涉及一种基于卷积神经网络的数据分类方法、系统、介质及设备。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术,并不必然构成现有技术。
卷积神经网络是深度学习在计算机视觉领域的基石。同时也在自然语言处理、推荐系统和语音识别等领域取得成效。在卷积神经网络中,卷积层在所有层中比列最高。卷积层数目越多,获取信息越多,提取特征越多,模型效果越好,但计算时间和内存消耗比例增加。为了优化训练卷积网络模型的时间,优化卷积层是推动神经网络工业可用性的巨大推力。
卷积是两个变量在某范围内相乘后求和的结果。如果卷积的变量是序列x(n)和h(n),则卷积的结果
Figure BDA0002289391780000011
其中星号*表示卷积。当时序n=0时,序列h(-i)是h(i)的时序i取反的结果;时序取反使得h(i)以纵轴为中心翻转180度,所以这种相乘后求和的计算法称为卷积和,简称卷积。在二维互相关运算中,卷积窗口从输入数组的最左上方开始,按从左往右、从上往下的顺序,依次在输入数组上滑动。当卷积窗口滑动到某一位置时,窗口中的输入子数组与核数组按元素相乘并求和,得到输出数组中相应位置的元素。
本公开发明人发现,为了进行数据分类,研究人员提出了多种卷积计算方案,如im2col(Image to Column)算法、FFT算法和Winograd算法等,但是上述卷积算法均采用了消耗内存和减少时间的方案,虽然提高了卷积的计算速度,但是增加了计算内存。
发明内容
为了解决现有技术的不足,本公开提供了一种基于卷积神经网络的数据分类方法、系统、介质及设备,通过对卷积层的特征矩阵进行压缩处理,在GPU上并行计算,减少了在计算过程中内存消耗和对于零值的计算,进而减少了神经网络的训练时间和内存消耗。
为了实现上述目的,本公开采用如下技术方案:
本公开第一方面提供了一种基于卷积神经网络的数据分类方法。
一种基于卷积神经网络的数据分类方法,步骤如下:
对获取的分类数据进行预处理,构建数据集;
构建卷积神经网络,所述卷积神经网络中至少包括一个卷积层,用于提取局部特征,所述卷积层对特征矩阵进行压缩,并对所生成的稀疏矩阵在图形处理单元上进行稀疏矩阵向量乘运算,利用数据集中的数据训练卷积神经网络;
将待分类数据预处理后输入到已训练好的卷积神经网络模型,输出数据分类结果。
作为可能的一些实现方式,对数据集增广并进行归一化预处理,得到统一规格的特征图,所述特征图的特征矩阵维度一致;
进一步的,将特征矩阵和数据标签导入卷积神经网络进行训练,得到训练好的卷积神经网络模型。
作为可能的一些实现方式,所述卷积层的处理方法,具体为:
(3-1)分割压缩过程:根据滤波器的宽度和步长找到特征矩阵的子矩阵分割窗口,根据分割窗口对数据进行压缩处理,并将数据存放至共享内存;
(3-2)在图形处理单元上进行稀疏矩阵向量乘运算:将(3-1)所得到的压缩矩阵与向量化的滤波器进行稀疏矩阵向量乘运算得到卷积结果。
作为进一步的限定,所述(3-1)中,将输入层输出的特征矩阵进行分割压缩处理,包括:确定子矩阵分割窗口,将每一组所属行内的所有子矩阵分配一个线程块,在线程块中分配线程处理所属块内的子矩阵;
对每一个线程的子矩阵的零值进行压缩,将非零值和非零值索引所对应卷积核数值存储到共享内存,并记录窗口内非零值的个数到共享内存中。
作为进一步的限定,在特征图分割的过程中,对于同一行分割的子特征图,分配到同一个线程块,在这个线程块内,对每一个特征图连续地分配线程,对于不同列的特征图分配到不同的线程块中。
作为进一步的限定,所述(3-2)中,将(3-1)中的非零值与对应卷积核数值进行乘积运算,得到最终的卷积结果。
作为进一步的限定,子矩阵分割窗口的长为滤波器的宽度,子矩阵分割窗口沿着特征矩阵的第一行从左到右移动,移动步长为滤波器的步长;
第一行分割后开始下一行分割,依然从左到右移动,在移动过程中,子矩阵分割窗口总处于特征矩阵内部,将分割的一行子矩阵用一个线程块表示,用线程块内的一个线程处理一个子矩阵,线程对每一个子矩阵使用新的格式进行存储。
作为更进一步的限定,采用新的格式进行存储,具体为:将矩阵的后续非零值放在连续的共享内存中,针对某一子矩阵,创建三个向量:第一向量用于存储此子矩阵内的非零值,第二向量用于存储非零值映射的卷积核数值,第三向量用于存储非零值的个数。
本公开第二方面提供了一种基于卷积神经网络的数据分类系统。
一种基于卷积神经网络的数据分类系统,包括:
预处理模块,被配置为:对获取的分类数据进行预处理,构建数据集;
模型构建模块,被配置为:构建卷积神经网络,所述卷积神经网络中至少包括一个卷积层,用于提取局部特征,所述卷积层对特征矩阵进行压缩,并对所生成的稀疏矩阵在图形处理单元上进行稀疏矩阵向量乘运算,利用数据集中的数据训练卷积神经网络;
数据分类模块,被配置为:将待分类数据预处理后输入到已训练好的卷积神经网络模型,输出数据分类结果。
本公开第三方面提供了一种可读存储介质,其上存储有程序,该程序被处理器执行时实现如本公开第一方面所述的基于卷积神经网络的数据分类方法中的步骤。
本公开第四方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开第一方面所述的基于卷积神经网络的数据分类方法中的步骤。
与现有技术相比,本公开的有益效果是:
1、本公开所述的内容通过对卷积层的特征矩阵进行压缩处理,在GPU(GraphicsProcessing Unit,图形处理单元)上并行计算,减少了在计算过程中内存消耗和对于零值的计算,进而减少了神经网络的训练时间和内存消耗。
2、本公开采用新格式存储,具体为将矩阵的后续非零值放在连续的共享内存中,新格式是一种稀疏矩阵存储格式,尚未被应用到卷积计算过程中,本公开所设计的新的卷积算法是基于块压缩和共享内存,极大的减少了非零值计算量,加速了矩阵乘法的计算速度。
3、本公开基于卷积神经网络稀疏度较大的特点,通过减少零值的乘积运算,从而减少了卷积过程运算,节省了运行内存,相比于现有技术中的算法,本公开的算法实现过程更加简单,解决了在计算过程中对于零值计算,从而减少了计算过程的内存消耗并提高了卷积的计算速度。
附图说明
图1为本公开实施例1提供的LeNet卷积神经网络框架中的三个卷积层的稀疏度变化曲线。
图2为本公开实施例1提供的传统方法在GPU上一个线程块内特征图卷积计算过程示意图。
图3为本公开实施例1提供的改进方法在GPU上一个线程块内特征图卷积计算过程示意图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
实施例1:
本公开实施例1提供了一种基于卷积神经网络的数据分类方法,步骤如下:
对获取的分类数据进行预处理,构建数据集;
构建卷积神经网络,卷积神经网络包括依次连接的输入层、卷积层、全连接层和输出层,所述卷积神经网络中至少包括一个卷积层,用于提取局部特征,所述卷积层对特征矩阵进行压缩,并对所生成的稀疏矩阵在图形处理单元上进行稀疏矩阵向量乘运算;
对训练集数据进行归一化处理,使所有样本数据形成维度一致的特征矩阵,将特征矩阵和数据分类标签导入卷积神经网络,对卷积神经网络进行训练,用于得到训练好的卷积神经网络;
对待分类数据进行归一化处理,使所有样本数据形成维度一致的特征矩阵,便于网络进行数据处理,将特征矩阵和数据分类标签导入卷积神经网络中,输出待分类数据的分类结果。
所述输入层的处理过程为:对输入数据进行预处理,将数据处理成同一维度并编码,用于得到更精准的数据。
在二维互相关运算中,卷积窗口从输入数组的最左上方开始,按从左往右、从上往下的顺序,依次在输入数组上滑动,如图2所示。当卷积窗口滑动到某一位置时,窗口中的输入子数组与核数组按元素相乘并求和,得到输出数组中相应位置的元素。随着层数的增加,特征矩阵的稀疏度迅速增加(如图1所示,其中1#和2#曲线为前层稀疏度变化曲线变化,3#曲线为深层卷积层稀疏度变化曲线横轴表示迭代次数,数轴表示稀疏度),同时矩阵乘法计算量也增加,因此对于零值的处理尤为重要。
本实施例基于卷积神经网络稀疏度较大的特点,通过减少零值的乘积运算,从而减少了卷积过程运算,节省了运行内存,并用GPU进行多线程计算,因而大幅提高整个卷积层的运算。相比于现有技术中的算法,本发明的算法实现过程更加简单,解决了在计算过程中对于零值计算,从而减少了计算过程的内存消耗并提高了卷积的计算速度。
本实施例所述的卷积层的处理过程,具体为:
(3-1)分割压缩过程:根据滤波器的宽度a和步长stride找到特征矩阵的子矩阵分割窗口,根据分割窗口对数据进行压缩处理,并将数据存放至共享内存;
(3-2)在图形处理单元上进行稀疏矩阵向量乘运算:将(3-1)所得到的压缩矩阵与向量化的滤波器进行稀疏矩阵向量乘运算得到卷积结果。
所述(3-1)中,将输入层输出的特征矩阵进行分割压缩处理,包括:确定子矩阵分割窗口,将每一组所属行内的所有子矩阵分配一个线程块,在线程块中分配线程处理所属块内的子矩阵;
对每一个线程的子矩阵的零值进行压缩,将非零值和非零值索引所对应卷积核数值存储到共享内存,并记录窗口内非零值的个数到共享内存中。
所述(3-2)中,将(3-1)中的非零值与对应卷积核数值进行乘积运算,得到最终的卷积结果。
子矩阵分割窗口的长为a,子矩阵分割窗口的宽为b,子矩阵分割窗口沿着特征矩阵的第一行从左到右移动,移动步长为stride;滤波器的宽度a通常设为特征矩阵宽度大小,高度b设为1。
第一行分割后开始下一行分割,依然从左到右移动,在移动过程中,子矩阵分割窗口总处于特征矩阵内部,将分割的一行子矩阵用一个线程块表示,用线程块内的一个线程处理一个子矩阵,线程对每一个子矩阵使用新的格式进行存储。
采用新的格式进行存储,具体为:将矩阵的后续非零值放在连续的共享内存中,针对某一子矩阵A,创建三个向量:第一向量用于存储子矩阵A内的非零值(F_data),第二向量用于存储非零值映射的卷积核数值(K_data),第三向量用于存储非零值的个数(Ptr)。
所述全连接层处理过程为:全连接层对于整个网络计算的结果起到“分类器”的作用,将计算的结果进行分类。
所述输出层过程为:利用分类器对于全连接层输出结果进行归一化得出每一类的结果的概率,并且根据此概率对数据进行分类。
以ILSVRC-2010的ImageNet图像数据集为例进行分类介绍:
(1)首先下载ILSVRC-2010的ImageNet图像数据集;
(2)对图像信息进行预处理;
(3)将归一化后的数据输入到调参后的卷积神经网络;
(4)在卷积层进行卷积计算过程中,具体的计算过程如下(具体卷积层计算过程如图3所示):将输入的矩阵根据滤波器的宽度进行分割,为分割后的每一个子特征图分配一个线程,从而并行地将每一个子特征图进行压缩处理;
在特征图分割的过程中,对于同一行分割的子特征图,分配到同一个线程块,在这个块内,对每一个特征图连续地分配线程;
对于不同列的特征图分配到不同的线程块中,在线程对子特征图压缩过程中,将子特征图内的非零值存储到线程块内的共享内存,将非零值索引映射的卷积核内数值存储到共享内存,将子特征图非零值的个数存储到共享内存,然后进行稀疏矩阵向量乘运算运算得到最终的卷积计算结果。
(5)卷积运算结果再次传输到进行全连接层。
(6)在实现完成最后全连接层运算后,进行分类运算,分类运算用1000-waysoftmax运算完成数据分类计算。
(7)最后将分类运算的结果输出。
实施例2:
本公开实施例2提供了一种基于卷积神经网络的数据分类系统,包括:
预处理模块,被配置为:对获取的分类数据进行预处理,构建数据集;
模型构建模块,被配置为:构建卷积神经网络,所述卷积神经网络中至少包括一个卷积层,用于提取局部特征,所述卷积层对特征矩阵进行压缩,并对所生成的稀疏矩阵在图形处理单元上进行稀疏矩阵向量乘运算,利用数据集中的数据训练卷积神经网络;
数据分类模块,被配置为:将待分类数据预处理后输入到已训练好的卷积神经网络模型,输出数据分类结果。
实施例3:
本公开实施例3提供了一种可读存储介质,其上存储有程序,该程序被处理器执行时实现如本公开实施例1所述的基于卷积神经网络的数据分类方法中的步骤。
实施例4:
本公开实施例4提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开实施例1所述的基于卷积神经网络的数据分类方法中的步骤。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (9)

1.一种基于卷积神经网络的数据分类方法,其特征在于,步骤如下:
对获取的分类数据进行预处理,构建数据集;
构建卷积神经网络,并利用数据集中的数据训练卷积神经网络,所述卷积神经网络中至少包括一个卷积层,所述卷积层对特征矩阵进行压缩,并对所生成的稀疏矩阵在图形处理单元上进行稀疏矩阵向量乘运算,用于提取局部特征;
将待分类数据预处理后输入到已训练好的卷积神经网络模型,输出数据分类结果;
将特征矩阵进行分割压缩处理,包括:确定子矩阵分割窗口,将每一组所属行内的所有子矩阵分配一个线程块,在线程块中分配线程处理所属块内的子矩阵,采用GPU进行多线程计算;
采用新的格式进行存储,具体为:将矩阵的后续非零值放在连续的共享内存中,针对某一子矩阵,创建三个向量:第一向量用于存储此子矩阵内的非零值,第二向量用于存储非零值映射的卷积核数值,第三向量用于存储非零值的个数。
2.如权利要求1所述的基于卷积神经网络的数据分类方法,其特征在于,对获取的分类数据进行预处理,具体为:对数据集增广并进行归一化预处理,得到统一规格的特征图,所述特征图的特征矩阵维度一致;
进一步的,将特征矩阵和数据标签导入卷积神经网络进行训练,得到训练好的卷积神经网络模型。
3.如权利要求1所述的基于卷积神经网络的数据分类方法,其特征在于,所述卷积层的处理方法,具体为:
(3-1)分割压缩过程:根据滤波器的宽度和步长找到特征矩阵的子矩阵分割窗口,根据分割窗口对数据进行压缩处理,并将数据存放至共享内存;
(3-2)在图形处理单元上进行稀疏矩阵向量乘运算:将(3-1)所得到的压缩矩阵与向量化的滤波器进行稀疏矩阵向量乘运算得到卷积结果。
4.如权利要求3所述的基于卷积神经网络的数据分类方法,其特征在于,所述(3-1)中,对每一个线程的子矩阵的零值进行压缩,将非零值和非零值索引所对应卷积核数值存储到共享内存,并记录窗口内非零值的个数到共享内存中。
5.如权利要求4所述的基于卷积神经网络的数据分类方法,其特征在于,所述(3-2)中,将(3-1)中的非零值与对应卷积核数值进行乘积运算,得到最终的卷积结果。
6.如权利要求4所述的基于卷积神经网络的数据分类方法,其特征在于,子矩阵分割窗口的长为滤波器的宽度,子矩阵分割窗口沿着特征矩阵的第一行从左到右移动,移动步长为滤波器的步长;
第一行分割后开始下一行分割,依然从左到右移动,在移动过程中,子矩阵分割窗口总处于特征矩阵内部,将分割的一行子矩阵用一个线程块表示,用线程块内的一个线程处理一个子矩阵,线程对每一个子矩阵使用新的格式进行存储。
7.一种基于卷积神经网络的数据分类系统,其特征在于,包括:
预处理模块,被配置为:对获取的分类数据进行预处理,构建数据集;
模型构建模块,被配置为:构建卷积神经网络,所述卷积神经网络中至少包括一个卷积层,用于提取局部特征,所述卷积层对特征矩阵进行压缩,并对所生成的稀疏矩阵在图形处理单元上进行稀疏矩阵向量乘运算,利用数据集中的数据训练卷积神经网络;
数据分类模块,被配置为:将待分类数据预处理后输入到已训练好的卷积神经网络模型,输出数据分类结果;
模型构建模块中,将特征矩阵进行分割压缩处理,包括:确定子矩阵分割窗口,将每一组所属行内的所有子矩阵分配一个线程块,在线程块中分配线程处理所属块内的子矩阵,采用GPU进行多线程计算;
采用新的格式进行存储,具体为:将矩阵的后续非零值放在连续的共享内存中,针对某一子矩阵,创建三个向量:第一向量用于存储此子矩阵内的非零值,第二向量用于存储非零值映射的卷积核数值,第三向量用于存储非零值的个数。
8.一种可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-6任一项所述的基于卷积神经网络的数据分类方法中的步骤。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6任一项所述的基于卷积神经网络的数据分类方法中的步骤。
CN201911173587.5A 2019-11-26 2019-11-26 基于卷积神经网络的数据分类方法、系统、介质及设备 Active CN110909801B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911173587.5A CN110909801B (zh) 2019-11-26 2019-11-26 基于卷积神经网络的数据分类方法、系统、介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911173587.5A CN110909801B (zh) 2019-11-26 2019-11-26 基于卷积神经网络的数据分类方法、系统、介质及设备

Publications (2)

Publication Number Publication Date
CN110909801A CN110909801A (zh) 2020-03-24
CN110909801B true CN110909801B (zh) 2020-10-09

Family

ID=69819558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911173587.5A Active CN110909801B (zh) 2019-11-26 2019-11-26 基于卷积神经网络的数据分类方法、系统、介质及设备

Country Status (1)

Country Link
CN (1) CN110909801B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461258B (zh) * 2020-04-26 2023-04-18 武汉大学 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法
CN111723873A (zh) * 2020-06-29 2020-09-29 南方电网科学研究院有限责任公司 一种电力序列数据分类方法和装置
CN111884658A (zh) * 2020-07-09 2020-11-03 上海兆芯集成电路有限公司 数据解压缩方法、数据压缩方法及卷积运算装置
CN111914213B (zh) * 2020-07-31 2023-11-10 中国原子能科学研究院 一种稀疏矩阵向量乘运算时间预测方法及系统
CN112036554B (zh) * 2020-11-04 2021-04-06 深圳追一科技有限公司 神经网络模型的处理方法、装置、计算机设备和存储介质
CN112507900A (zh) * 2020-12-14 2021-03-16 磐基技术有限公司 一种基于卷积操作硬件加速的图像处理方法及系统
CN112906874A (zh) * 2021-04-06 2021-06-04 南京大学 卷积神经网络特征图数据压缩方法及装置
CN113284512B (zh) * 2021-05-25 2022-05-27 重庆大学 一种基于深度稀疏迁移学习的帕金森语音分类方法
CN114792132B (zh) * 2022-06-22 2022-11-29 苏州浪潮智能科技有限公司 一种脉冲神经网络加速计算系统、方法、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239824A (zh) * 2016-12-05 2017-10-10 北京深鉴智能科技有限公司 用于实现稀疏卷积神经网络加速器的装置和方法
CN107301668A (zh) * 2017-06-14 2017-10-27 成都四方伟业软件股份有限公司 一种基于稀疏矩阵、卷积神经网络的图片压缩方法
CN108510063A (zh) * 2018-04-08 2018-09-07 清华大学 一种应用于卷积神经网络的加速方法和加速器
CN108932548A (zh) * 2018-05-22 2018-12-04 中国科学技术大学苏州研究院 一种基于fpga的稀疏度神经网络加速系统
CN109726799A (zh) * 2018-12-27 2019-05-07 四川大学 一种深度神经网络的压缩方法
CN109858575A (zh) * 2019-03-19 2019-06-07 苏州市爱生生物技术有限公司 基于卷积神经网络的数据分类方法
CN110062233A (zh) * 2019-04-25 2019-07-26 西安交通大学 卷积神经网络全连接层稀疏的权值矩阵的压缩方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732490A (zh) * 2014-12-03 2015-06-24 南京理工大学 基于cuda的快速双边滤波方法
CN106650925A (zh) * 2016-11-29 2017-05-10 郑州云海信息技术有限公司 一种基于MIC集群的深度学习框架Caffe系统及算法
CN106846377A (zh) * 2017-01-09 2017-06-13 深圳市美好幸福生活安全系统有限公司 一种基于颜色属性和主动特征提取的目标跟踪算法
CN110458280B (zh) * 2019-07-15 2022-08-30 武汉魅瞳科技有限公司 一种适用于移动端的卷积神经网络加速方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239824A (zh) * 2016-12-05 2017-10-10 北京深鉴智能科技有限公司 用于实现稀疏卷积神经网络加速器的装置和方法
CN107301668A (zh) * 2017-06-14 2017-10-27 成都四方伟业软件股份有限公司 一种基于稀疏矩阵、卷积神经网络的图片压缩方法
CN108510063A (zh) * 2018-04-08 2018-09-07 清华大学 一种应用于卷积神经网络的加速方法和加速器
CN108932548A (zh) * 2018-05-22 2018-12-04 中国科学技术大学苏州研究院 一种基于fpga的稀疏度神经网络加速系统
CN109726799A (zh) * 2018-12-27 2019-05-07 四川大学 一种深度神经网络的压缩方法
CN109858575A (zh) * 2019-03-19 2019-06-07 苏州市爱生生物技术有限公司 基于卷积神经网络的数据分类方法
CN110062233A (zh) * 2019-04-25 2019-07-26 西安交通大学 卷积神经网络全连接层稀疏的权值矩阵的压缩方法及系统

Also Published As

Publication number Publication date
CN110909801A (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
CN110909801B (zh) 基于卷积神经网络的数据分类方法、系统、介质及设备
CN111695467B (zh) 基于超像素样本扩充的空谱全卷积高光谱图像分类方法
CN108985317B (zh) 一种基于可分离卷积和注意力机制的图像分类方法
CN106919942B (zh) 用于手写汉字识别的深度卷积神经网络的加速压缩方法
US20190228268A1 (en) Method and system for cell image segmentation using multi-stage convolutional neural networks
CN111144329B (zh) 一种基于多标签的轻量快速人群计数方法
CN110378383B (zh) 一种基于Keras框架和深度神经网络的图片分类方法
CN109858575B (zh) 基于卷积神经网络的数据分类方法
CN111767979A (zh) 神经网络的训练方法、图像处理方法、图像处理装置
CN110020639B (zh) 视频特征提取方法及相关设备
CN111882040A (zh) 基于通道数量搜索的卷积神经网络压缩方法
CN113674334B (zh) 基于深度自注意力网络和局部特征编码的纹理识别方法
CN110188827A (zh) 一种基于卷积神经网络和递归自动编码器模型的场景识别方法
CN111723915A (zh) 深度卷积神经网络的剪枝方法、计算机设备及应用方法
CN110263855B (zh) 一种利用共基胶囊投影进行图像分类的方法
Chen et al. A compact cnn-dblstm based character model for online handwritten chinese text recognition
CN114821058A (zh) 一种图像语义分割方法、装置、电子设备及存储介质
CN116168197A (zh) 一种基于Transformer分割网络和正则化训练的图像分割方法
Salem et al. Semantic image inpainting using self-learning encoder-decoder and adversarial loss
CN116863194A (zh) 一种足溃疡图像分类方法、系统、设备及介质
CN110288603B (zh) 基于高效卷积网络和卷积条件随机场的语义分割方法
CN113705394B (zh) 一种长短时域特征结合的行为识别方法
CN112364989A (zh) 一种基于快速傅里叶变换的卷积神经网络加速设计方法
CN115082840B (zh) 基于数据组合和通道相关性的动作视频分类方法和装置
CN114677545B (zh) 一种基于相似性剪枝和高效模块的轻量化图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant