CN111783977A - 一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法和装置 - Google Patents
一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法和装置 Download PDFInfo
- Publication number
- CN111783977A CN111783977A CN202010317520.0A CN202010317520A CN111783977A CN 111783977 A CN111783977 A CN 111783977A CN 202010317520 A CN202010317520 A CN 202010317520A CN 111783977 A CN111783977 A CN 111783977A
- Authority
- CN
- China
- Prior art keywords
- neural network
- input activation
- activation value
- region
- gradient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 61
- 230000008569 process Effects 0.000 title claims abstract description 58
- 238000012549 training Methods 0.000 title claims abstract description 52
- 230000006835 compression Effects 0.000 title claims abstract description 9
- 238000007906 compression Methods 0.000 title claims abstract description 9
- 230000004913 activation Effects 0.000 claims abstract description 48
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 230000000903 blocking effect Effects 0.000 claims 1
- 238000005457 optimization Methods 0.000 abstract description 2
- 239000010410 layer Substances 0.000 description 23
- 210000002569 neuron Anatomy 0.000 description 16
- 230000006870 function Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000013341 scale-up Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法和装置。该方法在神经网络训练的前向传播过程中将特定区域的输入激活值保存在内存中;在神经网络训练的反向传播过程中利用保存的特定区域的输入激活值计算梯度,以更新神经网络的权重参数。所述区域是在输入激活值的长度和宽度方向上划分的区域。通过分块步长和网络稠密度确定所述特定区域,首先根据分块步长对输入激活值划分区域,并确定区域起始位置,然后根据网络稠密度确定保留区域总数。本发明对神经网络训练时需要保存的激活值进行存储优化,能够大幅降低内存成本,提高训练深度更深、规模更大的神经网络的能力,同时也可以在内存受限的设备上在线训练网络。
Description
技术领域
本发明涉及神经网络训练过程中的中间值存储压缩方法和装置,属于人工智能和存储领域。
背景技术
在过去几年中,深度卷积神经网络处理各种视觉任务的性能得到了大幅度的提升。在大多数情况下,越先进的神经网络,其深度也会越深。例如在各种计算机视觉处理任务中表现出色的深度残差神经网络。对深度残差神经网络而言,关键的创新点是残差块。通过残差块,神经网络训练过程中前面的信息可以直接传递到后面的部分,从而使得反向传播过程中梯度不会因为网络过深而消失。这一结构的出现使得我们可以训练具有上百层结构的神经网络,深度大幅增加对网络处理各种任务的精确度有显著的提升。
反向传播是现代神经网络训练的基础。由于反向传播过程中计算梯度值需要网络激活值,所以神经网络需要将网络激活值存储在内存中,以便于进行计算,内存成本与网络中的单元数成正比。这意味着随着网络深度的增加和规模的扩大,存储激活值需要更大的内存空间,这已经成为了许多应用程序的瓶颈。以神经网络训练时常用的图形处理单元(GPU)为例,部分性能显著的神经网络深度达到一千层以上,存储要求经常超出GPU显存限制。训练这些大型网络可能需要跨多个GPU并行处理,实现复杂且成本昂贵。同时由于内存的限制,现代神经网络通常以mini-batch的方式进行训练,这对于随机梯度下降法而言效率很低。减少存储激活值的内存成本能有效提高训练深度更深、规模更大的神经网络的能力。
发明内容
本发明的目的是提出一种针对神经网络训练时需要存储的中间值的存储压缩方法和装置,以降低训练时的内存成本,同时可以在内存受限的设备上进行在线训练。
本发明采用的技术方案如下:
一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法,包括以下步骤:
在神经网络训练的前向传播过程中,将特定区域的输入激活值保存在内存中;
在神经网络训练的反向传播过程中,利用保存的特定区域的输入激活值计算梯度,以更新神经网络的权重参数。
进一步地,所述区域是在输入激活值的长度和宽度方向上划分的区域。
进一步地,通过两个超参数确定所述特定区域,所述两个超参数为分块步长和网络稠密度。
进一步地,确定所述特定区域的步骤包括:
根据分块步长对输入激活值划分区域,并确定区域起始位置;
根据网络稠密度确定保留区域总数。
进一步地,根据训练时批数据的编号确定所述区域起始位置。
进一步地,所述区域起始位置等于批数据编号与划分区域的总数取模后的结果,以在整个训练过程中依次遍历每个区域。
进一步地,所述根据网络稠密度确定保留区域总数,包括:当区域起始位置的编号与保留区域总数之和大于划分的区域总数时,超出的部分从编号为0的区域开始,依次向后取值,直到实际保留区域数等于保留区域总数为止。
一种基于分区域梯度更新的神经网络训练过程中间值存储压缩装置,其包括:
区域划分模块,用于在输入激活值的长度和宽度方向上划分区域;
输入激活值保存模块,用于在神经网络训练的前向传播过程中,将区域划分模块划分的区域中特定区域的输入激活值保存在内存中;
梯度计算模块,用于在神经网络训练的反向传播过程中,利用保存的特定区域的输入激活值计算梯度,以更新神经网络的权重参数。
本发明的有益效果如下:
本发明对神经网络训练时需要保存的激活值进行存储优化,能够大幅降低内存成本,提高训练深度更深,规模更大的神经网络的能力,同时也可以在内存受限的设备上在线训练网络。
附图说明
图1是神经元前向传播和反向传播示意图,其中(a)为前向传播,(b)为反向传播。
图2是卷积过程示意图。
图3是分区域梯度更新示意图。其中(a)为同一batch内梯度更新示意图;(b)表示起始位置为1,选择编号为1和2的区域;(c)表示起始位置为3,选择编号为0和3的区域。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面通过具体实施例和附图,对本发明做进一步详细说明。
神经网络训练分为前向传播和反向传播两个过程。前向传播过程中,要将网络每一层的激活值保存在内存中,在反向传播时利用这些激活值计算梯度,以更新网络权重参数。对训练时需要保存的激活值进行存储优化,就可以大幅降低内存成本,提高训练深度更深,规模更大的神经网络的能力,同时也可以在内存受限的设备上在线训练网络。
为了对神经网络训练过程中需要保存的中间值做存储优化,就必须详细了解神经网络前向和反向传播过程,下面以全连接神经网络和最近几年来在各领域表现出色的卷积神经网络为例进行说明。
1.全连接神经网络
全连接神经网络有一个输入,经过一系列隐藏层得到一个输出。每个隐藏层由一系列神经元组成,各层神经元之间是全连接结构,单独一层的各个神经元之间完全相互独立,不会共享任何连接。网络的最后一个全连接层被称为输出层,在分类网络中,输出为每一类的得分。从输入经过隐藏层得到输出的过程被称为前向传播。如图1所示,以单个神经元为例,说明前向传播的具体过程。图中x是神经元的输入激活值,w是此神经元对应的权重,f(x)是激活函数,z是最终的输出。
输入x首先和权重w相乘得到wx,然后作为神经元激活函数的输入,与激活函数f(x)相互作用后得到f(wx)作为输出结果,即z=f(wx)。上述过程即为前向传播过程中单个神经元的具体功能。
神经网络训练过程中,反向传播具有重要的作用,反向传播依赖于函数求导链式法则。在上述前向传播的基础上加入神经网络反向传播的过程。如图1所示,神经元输出z对损失函数L的导数作为神经元的输入。此时需要计算前向传播输入激活值x和权值w的导数,根据函数求导链式法则,可以得到x和w的导数,
从w的导数值中,我们可以看到,计算w导数时需要在内存中保存x的值,反向传播输出结果是x的导数值。上述过程即为反向传播过程中单个神经元的具体作用。
通常全连接神经网络由若干网络层构成,每个网络层又由若干神经元组成。根据上述前向和反向传播过程,为了计算整个网络中的梯度值,需要耗费大量的内存空间,来保存训练过程中间结果。需要的内存空间与输入数据量和网络的规模成正比。
2.卷积神经网络
在图像处理任务中,全连接神经网络不能对整个图像做很好的扩展。以cifar10数据集为例,输入图像的大小为32×32×3。对传统神经网络而言,处理图像时第一个隐藏层的每个神经元都会有3072个权值参数。神经元权值参数数量与图像的大小成正比,如果输入更大的图像,那么网络中每个神经元的权值参数数量将会十分庞大。卷积神经网络的提出则可以解决传统神经网络的弊端,同时拥有更好的特征提取能力。卷积神经网络中,最重要的结构就是卷积层。卷积层由一系列可学习的特征提取器(滤波器)组成。每个特征提取器都以三维形式组织。在空间上长度和宽度都比较小,深度与输入数据的深度保持一致。特征提取器提取特征的过程也被称为卷积。直观上来讲,当特征提取器在输入图像上看到某些类型的视觉特征时就会激活,具体的视觉特征可能是一些区域的边界,或者是某些颜色和形状。卷积后输出数据大小可以根据公式2计算,输出数据深度与特征提取器的数目相同。
式中output_h和output_w表示输出数据的长度和宽度,input_h和input_w表示输入数据的长度和宽度,filter_h和filter_w表示特征提取器的长度和宽度,padding表示对输入数据进行填充,stride表示卷积过程中特征提取器移动步长。
相比全连接神经网络,卷积神经网络前向和反向传播过程较为复杂。以图2所示的例子阐释卷积操作过程。在这个例子中,我们假设输入数据X的大小为3×3,深度为1。卷积层只包含一个特征提取器,其大小为2×2,深度与输出数据相同为1。卷积过程中,没有填充且特征提取器移动的步长为1。由公式计算可得输出数据Y的大小为2×2。
特征提取器首先和输入的第一个区域相互作用,得到输出y11的值,接着特征提取器以规定的步长移动,与第二个区域相互作用,得到输出y12的值,依次类推计算出y21和y22的值,公式3表示输出结果。
上述过程即为卷积的前向传播过程。从卷积的结果可以看出特征提取器中每个权重值都对输出结果有贡献,因此任何一个权重值发生变化都会直接影响到输出结果,所有权重值都对最终的损失函数产生影响。反向传播时,需要计算特征提取器中每个权重参数的梯度,用来对权重进行修正,同时计算每个输入值xij的梯度值作为输出。这里只列出权重参数的梯度,假设最终的损失函数为L,根据卷积的输出结果,可以求得每个权重的梯度为
从梯度结果可以看出为了计算权重参数的梯度值,需要将每个输入值存储在内存中,卷积层在前向传播和反向传播的过程中都会产生大量的计算,同时因为要计算权重参数的梯度值,存储了全部输入激活值,而产生大量的存储开销。需要的内存空间与输入的大小和网络的层数成正比,内存的限制成为了训练大数据集和大规模网络的瓶颈。减少内存限制的影响成为了一个巨大的挑战。
本发明针对卷积神经网络(或其它包含卷积操作的神经网络)如何减少卷积层在训练过程中的存储开销提出分区域梯度更新方法。
分区域梯度更新主要是在训练过程中,保存特定区域的输入激活值用于梯度的计算,其余位置,在前向传播的过程不保存,在反向传播的过程中不参与梯度计算,如图3(a)所示。达到减少神经网络训练过程中内存开销的目的。其中,“区域”是指在输入激活值的长度和宽度方向上划分的区域。
假设输入数据大小为2×2×3,卷积层只包含一个特征提取器,其大小为1×1×3,特征提取器的步长为1,填充值为零,则卷积运算后得到的输出数据的大小为2×2。普通的卷积运算过程中,保存全量的输入激活值在内存中,用于梯度计算,占用的存储空间等于输入数据大小与输入数据类型占用空间的乘积,共占用48字节的内存空间。分区域梯度更新过程中,如图3(a)所示,选定左上角四分之一区域进行梯度更新,其余位置丢弃。则前向传播过程中,实际存储数据大小为1×1×3,占用12字节内存空间,原始卷积消耗内存空间是分区域梯度更新的4倍。分区域梯度更新通常设置两个超参数:分块步长和网络稠密度。分块步长用来确定划分区域的方式,用bs表示,假设bs的值为2,则将输入激活值划分为bs值的平方即4个区域。网络稠密度确定实际保留多少个区域,用d表示。假设将输入激活值划分为4个区域,d的值为0.5,则实际保留2个区域来计算梯度。区域可以是方形,也可以是长度和宽度不相同的矩形。神经网络中输入通常为方形,所以本实施例的区域划分以方形为例来说明。
分区域梯度更新由两步组成:
A、对输入激活值划分区域并确定区域起始位置
首先根据超参数bs对输入激活值划分区域,然后确定区域起始位置。分区域梯度更新时严格保证同一批(batch)数据在不同卷积层,选择区域的相对位置一致。根据训练时批数据的编号来确定起始位置。实际执行过程中,为了保证起始位置有意义,起始位置等于批数据编号与划分区域的总数取模后的结果,这样可以在整个训练过程中依次遍历每个区域。假设bs的值为2,则将输入激活值划分为4个区域,批数据编号为2时,区域起始位置是编号为2的区域,批数据编号为6时,区域起始位置同样是编号为2的区域。
B、根据d确定保留区域总数
在确定了起始位置后,需要根据超参数d来确定总共保留多少个区域用于梯度更新。假设d的值为0.5,划分区域总数为4,则保留区域总数为2,如图3(b)所示,起始区域编号为1,则依次保留编号为1和编号为2的区域。这里需要对边界情况做特殊的处理,当区域起始位置的编号与保留区域总数之和大于划分区域总数时,超出的部分从编号为0的区域开始,依次向后取值,直到实际保留区域数等于保留区域总数为止。如图3(c)所示,当区域起始编号为3,保留区域总数为2时,依次保留编号为3和编号为0的区域,用来计算梯度值。
具体应用实例:
该应用实例以pytorch扩展的方式实现了分区域梯度更新方法。在标准的图像分类数据集cifar10上,选用resnet20和resnet32网络来测试这两种方法的实际表现。为了与原始网络训练时的数据直接对比,在具体实施过程中,保证其他参数一致,只调整分区域梯度更新方法的超参数,设置分区域梯度更新超参数bs值为2,测试结果中卷积层占用内存空间以一个batch为准,此时的batch大小为128,且卷积层占用内存空间不包含权重参数占用的内存空间。
在cifar10数据集上,resnet20网络分区域梯度更新测试结果如表1所示。
表1分区域梯度更新结果
网络稠密度 | 训练精度 | 卷积层内存空间/MB |
0.25 | 89.1 | 24 |
0.5 | 90.43 | 48 |
原始网络 | 91.25 | 96 |
在cifar10数据集上,resnet32网络分区域梯度更新测试结果分别如表2所示。
表2分区域梯度更新结果
网络稠密度 | 训练精度 | 卷积层内存空间/MB |
0.25 | 90.33 | 36.5 |
0.5 | 91.46 | 73 |
原始网络 | 92.49 | 146 |
根据以上测试结果可以看出,本发明对神经网络训练时需要保存的激活值实现了存储优化,能够大幅降低内存成本,同时对训练精度的影响较小。
基于同一发明构思,本发明的另一个实施例提供一种基于分区域梯度更新的神经网络训练过程中间值存储压缩装置,其包括:
区域划分模块,用于在输入激活值的长度和宽度方向上划分区域;
输入激活值保存模块,用于在神经网络训练的前向传播过程中,将区域划分模块划分的区域中特定区域的输入激活值保存在内存中;
梯度计算模块,用于在神经网络训练的反向传播过程中,利用保存的特定区域的输入激活值计算梯度,以更新神经网络的权重参数。
上述各模块的具体实现方式参见前文对本发明方法的说明。
基于同一发明构思,本发明的另一个实施例提供一种电子装置(计算机、服务器、智能手机等),其包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行本发明方法中各步骤的指令。
基于同一发明构思,本发明的另一个实施例提供一种计算机可读存储介质(如ROM/RAM、磁盘、光盘),所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现本发明方法的各个步骤。
以上公开的本发明的具体实施例和附图,其目的在于帮助理解本发明的内容并据以实施,本领域的普通技术人员可以理解,在不脱离本发明的精神和范围内,各种替换、变化和修改都是可能的。本发明不应局限于本说明书的实施例和附图所公开的内容,本发明的保护范围以权利要求书界定的范围为准。
Claims (10)
1.一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法,其特征在于,包括以下步骤:
在神经网络训练的前向传播过程中,将特定区域的输入激活值保存在内存中;
在神经网络训练的反向传播过程中,利用保存的特定区域的输入激活值计算梯度,以更新神经网络的权重参数。
2.根据权利要求1所述的方法,其特征在于,所述区域是在输入激活值的长度和宽度方向上划分的区域。
3.根据权利要求1或2所述的方法,其特征在于,通过两个超参数确定所述特定区域,所述两个超参数为分块步长和网络稠密度。
4.根据权利要求3所述的方法,其特征在于,确定所述特定区域的步骤包括:
根据分块步长对输入激活值划分区域,并确定区域起始位置;
根据网络稠密度确定保留区域总数。
5.根据权利要求4所述的方法,其特征在于,根据训练时批数据的编号确定所述区域起始位置。
6.根据权利要求5所述的方法,其特征在于,所述区域起始位置等于批数据编号与划分区域的总数取模后的结果,以在整个训练过程中依次遍历每个区域。
7.根据权利要求5所述的方法,其特征在于,所述根据网络稠密度确定保留区域总数,包括:
当区域起始位置的编号与保留区域总数之和大于划分的区域总数时,超出的部分从编号为0的区域开始,依次向后取值,直到实际保留区域数等于保留区域总数为止。
8.一种基于分区域梯度更新的神经网络训练过程中间值存储压缩装置,其特征在于,包括:
区域划分模块,用于在输入激活值的长度和宽度方向上划分区域;
输入激活值保存模块,用于在神经网络训练的前向传播过程中,将区域划分模块划分的区域中特定区域的输入激活值保存在内存中;
梯度计算模块,用于在神经网络训练的反向传播过程中,利用保存的特定区域的输入激活值计算梯度,以更新神经网络的权重参数。
9.一种电子装置,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行权利要求1~7中任一权利要求所述方法的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现权利要求1~7中任一权利要求所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010317520.0A CN111783977B (zh) | 2020-04-21 | 2020-04-21 | 一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010317520.0A CN111783977B (zh) | 2020-04-21 | 2020-04-21 | 一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783977A true CN111783977A (zh) | 2020-10-16 |
CN111783977B CN111783977B (zh) | 2024-04-05 |
Family
ID=72753510
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010317520.0A Active CN111783977B (zh) | 2020-04-21 | 2020-04-21 | 一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783977B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114398949A (zh) * | 2021-12-13 | 2022-04-26 | 鹏城实验室 | 一种脉冲神经网络模型的训练方法、存储介质及计算设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408562A (zh) * | 2016-09-22 | 2017-02-15 | 华南理工大学 | 基于深度学习的眼底图像视网膜血管分割方法及系统 |
CN107742152A (zh) * | 2017-09-28 | 2018-02-27 | 天津大学 | 非随机Dropout正则化的卷积神经网络设计方法 |
CN109784474A (zh) * | 2018-12-24 | 2019-05-21 | 宜通世纪物联网研究院(广州)有限公司 | 一种深度学习模型压缩方法、装置、存储介质及终端设备 |
US10304193B1 (en) * | 2018-08-17 | 2019-05-28 | 12 Sigma Technologies | Image segmentation and object detection using fully convolutional neural network |
US10515306B1 (en) * | 2019-02-28 | 2019-12-24 | DeepCube LTD. | Partial activation of multiple pathways in neural networks |
-
2020
- 2020-04-21 CN CN202010317520.0A patent/CN111783977B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408562A (zh) * | 2016-09-22 | 2017-02-15 | 华南理工大学 | 基于深度学习的眼底图像视网膜血管分割方法及系统 |
CN107742152A (zh) * | 2017-09-28 | 2018-02-27 | 天津大学 | 非随机Dropout正则化的卷积神经网络设计方法 |
US10304193B1 (en) * | 2018-08-17 | 2019-05-28 | 12 Sigma Technologies | Image segmentation and object detection using fully convolutional neural network |
CN109784474A (zh) * | 2018-12-24 | 2019-05-21 | 宜通世纪物联网研究院(广州)有限公司 | 一种深度学习模型压缩方法、装置、存储介质及终端设备 |
US10515306B1 (en) * | 2019-02-28 | 2019-12-24 | DeepCube LTD. | Partial activation of multiple pathways in neural networks |
Non-Patent Citations (2)
Title |
---|
TIAGO DE SOUZA FARIAS: "Gradient target propagation", 《ARXIV:1810.09284V3》 * |
周安众;罗可;: "一种卷积神经网络的稀疏性Dropout正则化方法", 小型微型计算机系统, no. 08 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114398949A (zh) * | 2021-12-13 | 2022-04-26 | 鹏城实验室 | 一种脉冲神经网络模型的训练方法、存储介质及计算设备 |
CN114398949B (zh) * | 2021-12-13 | 2024-07-26 | 鹏城实验室 | 一种脉冲神经网络模型的训练方法、存储介质及计算设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111783977B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020118004A1 (de) | Verfahren und vorrichtungen zum kachelförmigen durchlaufen eines tensors für faltungsoperationen | |
CN109754359B (zh) | 一种应用于卷积神经网络的池化处理的方法及系统 | |
CN111667051A (zh) | 适用边缘设备的神经网络加速器及神经网络加速计算方法 | |
JP6990813B2 (ja) | 多層ニューラルネットワークモデルの学習及び適用方法、装置、並びに記憶媒体 | |
CN110008853B (zh) | 行人检测网络及模型训练方法、检测方法、介质、设备 | |
CN109255438A (zh) | 调整张量数据的方法和装置 | |
CN115437795B (zh) | 一种异构gpu集群负载感知的显存重计算优化方法及系统 | |
CN111597753A (zh) | 数据深度变化特征自适应的二维电阻率反演方法及系统 | |
CN110942141A (zh) | 基于全局稀疏动量sgd的深度神经网络剪枝方法 | |
JP2022101461A (ja) | ニューラルネットワークに用いられる混合粒度に基づく共同スパース方法 | |
CN111783977A (zh) | 一种基于分区域梯度更新的神经网络训练过程中间值存储压缩方法和装置 | |
CN112835718B (zh) | 任务处理的方法和装置、众核系统、计算机可读介质 | |
CN111783976B (zh) | 一种基于窗口梯度更新的神经网络训练过程中间值存储压缩方法和装置 | |
CN109359542A (zh) | 基于神经网络的车辆损伤级别的确定方法及终端设备 | |
CN112987665B (zh) | 一种基于强化学习的流水车间调度方法 | |
CN108986210A (zh) | 三维场景重建的方法和设备 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN113554104B (zh) | 一种基于深度学习模型的图像分类方法 | |
CN111667052A (zh) | 专用神经网络加速器的标准与非标准卷积一致性变换方法 | |
CN111722923A (zh) | 一种异构资源的调用方法、装置和计算机可读存储介质 | |
CN112396154A (zh) | 一种基于卷积神经网络训练的并行方法 | |
CN110162021A (zh) | 一种控制论系统性能检测方法 | |
CN107256425B (zh) | 随机权网络泛化能力改进方法及装置 | |
CN116957044B (zh) | 一种卷积神经网络模型的自动压缩方法 | |
CN113704520B (zh) | 利用cuda并行加速Anchor-based数据的处理方法、装置以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |