CN101253493A - 在图形处理单元上训练卷积神经网络 - Google Patents

在图形处理单元上训练卷积神经网络 Download PDF

Info

Publication number
CN101253493A
CN101253493A CNA2006800313052A CN200680031305A CN101253493A CN 101253493 A CN101253493 A CN 101253493A CN A2006800313052 A CNA2006800313052 A CN A2006800313052A CN 200680031305 A CN200680031305 A CN 200680031305A CN 101253493 A CN101253493 A CN 101253493A
Authority
CN
China
Prior art keywords
neural network
gpu
graphics processing
texture
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006800313052A
Other languages
English (en)
Other versions
CN101253493B (zh
Inventor
S·普里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN101253493A publication Critical patent/CN101253493A/zh
Application granted granted Critical
Publication of CN101253493B publication Critical patent/CN101253493B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/1801Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
    • G06V30/18019Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
    • G06V30/18038Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
    • G06V30/18048Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
    • G06V30/18057Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

在图形处理单元上实现一卷积神经网络。然后,卷积神经网络通过一系列正向传递和反向传递来进行训练,其中卷积核和偏差矩阵在每一次反向传递中根据误差函数的梯度得到修正。该实现利用图形处理单元中的像素遮蔽单元的并行处理性能,并利用一组逐步推导的公式对像素遮蔽单元的计算进行编程。程序通过纹理来完成输入和输出,并且使用一多级求和运算过程对各像素遮蔽单元寄存器进行求和运算。

Description

在图形处理单元上训练卷积神经网络
背景技术
神经网络
某些计算机问题,如字符识别和图象识别都能用机器学习技术很好地解决,其中主要是利用神经网络。神经网络是一类基于相互连接的“神经元”概念的算法。在一个典型的神经网络中,神经元具有多个数据值,每个数据值根据预定义的连接强度影响一个所连接的神经元的值,并判断对于每个特定神经元的总连接是否达到预定义的阈值。通过确定合适的连接强度和阈值(这一过程也被称为“训练”),神经网络就可以有效识别图形和字符。通常,这些神经元被分组到多个“层”中,以使组间的连接对数据值的每次计算更加明显。
图1例示了一个简化的神经网络框图,该图解释了手写字母“m”的一个示例100。在该示例中,示例性神经元的值是0或1。这是为了简化示例,并不限制在神经网络的神经元的数据值的范围或类型。在该示例中,手写样本的电子图像用于为输入层210即“第0层”创建一组数据值。在有些实现中,这可以通过直接将样本200的每个像素映射到第0层的某个特定神经元来实现,从而每个神经元根据像素是开还是关来显示1或0。另一个给神经元赋值的示例方法将结合卷积神经网络在以下讨论。由于神经网络的不规则性,以及它所导致需要解决的问题,神经网络的每一层可能有不同数量的神经元,而这些可能与输入数据的具体质量有关或无关。
如图1所示,第0层中的多个神经元与下一层即第1层(120)中的神经元相连接。在一个实现中,这被称为全连接神经网络,具体层中的每个神经元都与下一层的每个神经元相连接。在图1的示例中,通过展示两个神经元与第1层中的每个神经元的连接,部分地说明了这一点。然后,第1层中的每个神经元从第0层中的每个神经元接收输入值。这些输入值就进行加总,加总之和与偏差即阈值进行比较。如果该输入值超出一个具体神经元的阈值,该神经元就保持一个可作为下一层中的神经元的输入值的正值。这种计算对于神经网络中的各个层都持续出现,直到计算到最后一层,即层130,这里称其为“第n层”。在这一点处,神经网络例程的输出可从第n层的值中读取。在一字符识别中使用的网络实现中,层中的每个值都被赋予一个具体的字符。在这个实现中,该网络配置成以输出层结束,该输出层在一个神经元中只有一个大的正值,随后,该值显示出哪个字符是该网络计算出的最有可能的手写输入字符。
然而,如图2所示,这些连接在计算上很复杂。图2是基于前一层中的数据值计算神经元的数据值的方法的框图。应当注意,虽然图2例示了各种矩阵,但这些矩阵的指数(或大小)会因层和网络的改变而改变,而且,各种实现可能会有所不同地将矩阵定向至或映射至计算机存储器中。如图2所示,实现神经网络的一个方法是把每一层都当作一个神经元数据值矩阵,第0层矩阵210例示了这一方法。连接强度就可实现为一转换矩阵220,该转换矩阵乘以第0层矩阵210。这个乘积允许前一层中的每个数据值依据连接强度来通过一般的矩阵乘法运算进行缩放,然后加总。相乘后,添加一偏差矩阵230至乘积矩阵中以说明下一层中的每个神经元的阈值。然后,将S函数(在一实现中为tanh())应用于每个作为结果的数据值以确定是否达到阈值,因此而产生的数据值放置到矩阵中供下一层所用。这也被称为“压缩函数”。因此,如图2所示,每层间的连接,以及整个网络可用一系列的矩阵来表示。寻找这些矩阵的合适值就是训练神经网络的问题。
虽然图2例示了神经网络可以实现为矩阵,但如下述讨论,神经网络计算和神经网络训练还包括许多数学计算。此外,非全连接神经网络计算复杂性甚至更大。
发明内容
一像素着色器程序能在图形处理单元上有效训练卷积神经网络。例如,一卷积神经网络在图形处理单元上被实现为一系列纹理。然后,该神经网络通过一系列正向传递和反向传递进行训练,其中卷积核和偏差矩阵在每次反向传递中根据误差函数的梯度利用梯度下降法得到修正。
该实现利用了GPU中的像素着色器单元的并行处理性能,以有效地并行计算正向传递和反向传递。它还利用了一组示例性的逐步推倒公式以执行像素着色器单元中的计算。在一实例中,程序通过纹理来完成输入和输出,计算过程中这些纹理在也会被处理。在另一实例中,使用了一多级求和运算过程对各像素着色器单元寄存器进行求和运算。多种技术和系统可组合使用或单独使用。
本发明内容部分提供一些简单形式的概念的介绍,这些概念在下面的详细说明部分中将进行详细的描述。本发明内容部分不用来确定权利要求主题的关键特征或实质特征,也不用来确定所要求保护的主题的范围。
结合附图阅读以下详细描述的说明性实施例,可以清楚理解本发明的其它特征和优点。
附图说明
图1是一个常规的全连接神经网络框图。
图2是一个全连接神经网络的两层间的连接的矩阵实现的框图。
图3是一个图形处理单元架构的框图。
图4a和图4b是两个例示在手写体样本上使用卷积核框图。
图5是图形处理单元中的卷积神经网络的代表性训练过程的流程图。
图6是为图形处理单元中的计算准备神经网络数据的子过程的流程图。
图7是一个多级求和运算的例子的框图。
图8是实施图6的卷积神经网络技术的合适的计算环境的框图。
具体实施方式
以下描述涉及,为了识别手写体而对图形处理单元(“GPU”)架构训练卷积神经网络。GPU对输入数据反复执行正向传递和反向传递,修正和优化包括每一次传递中的神经网络的矩阵。这里描述的许多方法都已经设计出来,以利用GPU的高效性和使用为在GPU上高效执行而设计的像素着色器程序。
1、GPU架构
这里所描述的方法实现在一图形处理单元中。图1所示的一图形处理单元例示了对传统的GPU结构300的简述。在一个实现中,GPU架构与图8所示的GPU 815相对应。显示数据305描述了要呈现的数据的几何图形,该显示数据305被输入到顶点着色器单元310中,以生成其几何形式的多角形的表示。然后,把这些几何形状输入到一光栅器中,该光栅器内插多角形并对它们进行采样,以在图形空间形成一组样本点,该组样本点就可以被着色器并被添加纹理。然后,这些点被传输到一系列可编程的像素着色器单元330中,可编程像素着色器单元330利用并行计算技术为这些点着色,并添加和操作纹理。正是因为能够并行计算和操作纹理使得GPU,尤其是像素着色器单元,成为神经网络计算的一个有用的平台。在为利用像素着色器单元而写的GPU可执行程序像素着色器程序的控制下,像素着色器单元计算被频繁地执行。
能够在训练前被计算机CPU预先加载至图形存储器350的纹理被高速缓存入纹理高速缓存器340。一旦这些过程都完成后,图像点就可以在传输给图形存储器350之前置入帧缓冲器360。然而,在这里的方法的各种实现中,神经网络的输入数据和输出数据都将保存在纹理中。因此,在各种实现中,帧缓冲器的图像点输出就被忽略了或者就根本没有创建。
2、卷积神经网络
虽然上述全连接神经网络经过合适训练后能够识别手写体,但是在对输入进行操作时,它们经常不能利用形状和接近性。原因之一是每个像素都是各自独立操作的,忽略了相邻的像素。正因如此才使用了卷积神经网络,它是通过联合数据值阵列与每个神经元而运作的,而非通过单个值来运作。由此,这个阵列可以认为是一图像的一小片。下一层的神经元值的变换通常就从乘法泛化为卷积。这意味着连接强度230是卷积核而非标量值。图4a和4b展示了作用于字母“m”的一个样本400的卷积核的两个例子。在图4a中,样本与表示一竖线的卷积核410结合。因此而产生的像素片420包括样本中存在的三条竖线。同样地,在图4b中,手写体样本450与表示向右上方斜线的卷积核460结合。这使得像素片460包括输入字符的两条斜线。如图4a和4b所示,两个结果片在保持像素相邻的情况下示出字符的不同信息。这使字符识别更加有效。
然而,这些更复杂的传输包括更复杂的神经网络矩阵。因此,当一全连接网络中的一个矩阵包括一个数值阵列时,在一卷积神经网络中,每个矩阵条目都是一个矩形的(或正方形的)像素片;类似地,偏差矩阵也具有像素片,并且对每个片的每个元素执行S函数。此外,随着并行计算要求的增加,卷积神经网络的计算涉及到更复杂的数学而非简单的矩阵乘法运算。以下第四节部分描述了一卷积神经网络计算实现的例子。更多关于卷积网络方面的信息见:P.Y.Simard,D.Steinkaus,and J.C.Platt所著的,“Best Practices for ConvolutionalNeural Networks Applied to Visual Document Analysis(卷积神经网络应用于可视文本分析的最佳实践)”proc.International Conference on Document Analysisand Recognition,pp:958-962(文档分析和识别国际会议期刊,第958至962页),2003,该文献作为参考引入本说明书。
3、训练过程
图5展示了用于训练一卷积神经网络的一个示例过程500。在过程500的各种实现中,各步骤可以被删除、组合或分成子步骤。该过程开始于步骤510,在该步骤中,过程接收一需要训练的神经网络和训练样本。在一一般的实现中,网络可以预先设置好样本卷积核和偏差,但是每个样本卷积核和偏差都需优化以给出一致的且有效的结果。训练样本通常包括许多(在成千上万个的数量级)手写体字符样本,并要标出每个样本对应的正确字符。接下来过程进行到步骤520,准备神经网络数据比如样本和神经网络矩阵,将之作为图形数据,由GPU300的像素着色器单元330处理。这个步骤的示例过程将在以下图6中做进一步的详细描述。在一个实现中,步骤510和520都由和GPU 815相关联的CPU执行。在另一实现中,所有准备工作都由GPU 815执行。
如图5所示,这些样本中的每一个都将输入至卷积神经网络,并且计算输出以确定网络离合适的字符识别有多接近或多远。这被称为“正向传递”。然后,关于包括网络的每个矩阵的误差度通过所谓的“反向传递”来确定,然后根据误差修正矩阵。以下通用GPU程序的一般实践在这里描述的实现中写作一系列像素着色器程序。
这样,在步骤530中,GPU进入每个样本输入的循环。在步骤540中,神经网络经正向传递,为一给定样本确定一输出。接下来,在步骤550中,用一误差函数计算神经网络距期望输出有多远。接着在步骤560中,为误差函数确定一梯度函数。通过计算一梯度函数,所述梯度函数包括每个神经网络矩阵的每个条目相对于误差的偏导数,GPU可以根据梯度下降法计算出每个矩阵必须调整多少。然后,在步骤570中,包括卷积核和偏差的矩阵根据梯度函数得到修正。步骤550,560和570被总称为“反向传递”,因为它们接收输出误差信息,并且利用这些信息来确定每个神经网络矩阵所需做出的修正。第4节描述了这些正向传递和反向传递中使用的等式的一个实现的例子。最后,在步骤580中,只要有更多的样本输入,过程500的正向传递和反向传递步骤就会被反复执行。在样本输入结束时,神经网络已经对那些输入进行训练,过程也就此结束。
图6展示了用于准备神经网络数据的示例过程600,该数据在过程500的步骤520中为图形数据。在过程600的各种实现中,各步骤可以被删除、组合或分成子步骤。过程开始于步骤610,在该步骤中,过程创建一由覆盖全部视口的单一三角形组成的场景。之所以这么做是为了保护光栅器和GPU的其他阶段不受计算结果的影响,以免过程集中在像素着色器计算上。
在理想实现中,每个数据并行变量都存储为一个二维纹理。然而有些变量超过二维,所以在步骤620中它们被嵌入一二维纹理中。例如,变量Kv可通过以下等式(记号见以下第4节)“平坦化”为
Figure S2006800313052D00061
K ( i , j ) ( x , y ) v = K is v + x , js v + y v ‾ - - - ( 3.1 )
Figure S2006800313052D00063
在下一个步骤630中,为纹理确定了一坐标系统,因为像素着色器单元是为能在“像素”上运作而设计的,因此每个“像素”(在这里,像素是一卷积网络矩阵的元素)的位置必须确定。一种常用方法是将“纹理坐标”信息与向顶点着色器单元呈现的三角形的顶点相关联。然后,GPU就可以在每一个输出像素上插入纹理坐标值,并在一个像素着色器单元寄存器中提供插入的值。这不仅可以用来确定像素,还可以用来预先计算像素着色器程序执行期间所需的值。
然而,光栅器的插值函数的任何非平凡的使用都使得程序需要在每一次传递前适当地设置顶点数据。设置顶点数据的开支可能会超过从预计算数据值中获得的好处。另一可选择的实现利用了微软公司的ShaderModel 3.0和ShaderModel 3.0的vPos的寄存器。这个寄存器将到输出纹理的左上角的整数偏移量包括在其x和y分量中。从输入纹理中查找数据值所需的地址是vPos的简单线性组合。当坐标系统确定后,过程就可以在步骤630中创建纹理。最后,在步骤640中,纹理在处理开始前加载到GPU中。在一个实现中,如果不是所有的,也需要尽可能多的纹理加载到图形存储器中以防止GPU访问系统存储器,访问系统存储器会减慢计算时间。在这一点处,过程结束。
4、实现和推导
虽然在其他实现中可以使用其他系统,但这里的每个例子都利用了ShaderModel 3.0像素着色器系统。如上所述,一神经网络包括N层神经元,其中每个神经元都具有一个数值。在本节,称第v层为lv。lv是一向量,将其长度表示为nv,向量的第i个元素写作li v。每个lv+1层可利用“已知参数”Kv和bv并根据前一层lv计算出来。训练过程的目标是利用梯度下降法为这些参数寻找适合的值。为方便标记,使用条件算子I{c},当条件c为真时,该算子等于1,否则为0。这里所述的推导为神经网络训练提出了一些等式,为了减少在执行这些训练技术时对像素着色器程序的调用次数,所以这些等式用代数的方式简化和组合了。
4.1全连接网络——正向传递
为了帮助理解卷积神经网络的问题,将它与层数为2的相对简单的全连接网络相比较。这样,在正向传递中,每一层都根据前一层计算得出,lv+1可由以下公式计算出:
lv+1=σ(v)=σ(Kvlv+bv)                (4.1)
其中,0≤v<N。这里,σ是一个tanh的一个元素级应用的“压缩函数”,Kv为一个表示两层间连接强度的nv+1×nv矩阵,bv是表示偏差的长度为nv+1的向量。
4.2全连接网络——误差函数
为了将输出层lN作为一字符的分类器使用,可以分辩nN类,并把li N当作输入属于i类的概率
Figure S2006800313052D00071
的指示符。为使这些li N变成有效概率,可以利用“softmax”函数对它们进行标准化:
p ^ i = e l i N &Sigma; j < n N e l j N - - - ( 4.2 )
如果知道当前输入下的正确的分类为t,那么理想的计算应得出 p ^ i = I { i = t } . 距这一理想值的总偏差E可用“交叉熵”公式测得:
E = - &Sigma; i < n N I { i = t } ln p ^ i = - ln p ^ t - - - ( 4.3 )
4.3全连接网络——反向传递
如上所述,梯度下降法被用来训练神经网络的各种参数。这包括寻找误差函数E相对于每个参数Kv和bv的偏导数。为了简化标记,引入:
Figure S2006800313052D00075
其中,□表示元素级乘法运算,σ′是tanh′的一个元素级应用。将E的定义代入等式(4.4)中得:
&PartialD; E &PartialD; l i N = - 1 p ^ i &PartialD; p ^ t &PartialD; l i N = p ^ i - I { i = t } - - - ( 4.5 )
Figure S2006800313052D00077
这样,对0≤v≤N有:
&PartialD; E &PartialD; K v = &psi; v &CircleTimes; l v - - - ( 4.7 )
&PartialD; E &PartialD; b v = &psi; v - - - ( 4.8 )
其中,表示外积。对0≤v≤N又有:
ψv-1=(kv)Tψv□σ′(v-1)                (4.9)
其中,(kv)T为kv的矩阵转置。
利用以下所示的方法,前述等式可以通过更新参数来修正神经网络参数:
K v &LeftArrow; K v - &gamma; &PartialD; E &PartialD; K v - - - ( 4.10 )
b v &LeftArrow; b v - &gamma; &PartialD; E &PartialD; b v - - - ( 4.11 )
当0≤v≤N时,γ为学习率。在一个实现中,学习率设为10-3
4.4卷积神经网络——前向传递
与全连接神经网络相反,在卷积神经网络中,一个层的每一个元素li v不是标量,而是数字的pv×pv矩形片。相应地,Ki,j v用来表示大小为sv×sv的卷积核,bi v为pv+1×pv+1的偏差片。各层、各偏差和各核的各个元素分别写作l<i><x,y> v,K<i><x,y> v和b<i><x,y> v
类似于全连接情形,计算lv+1的公式为:
Figure S2006800313052D00084
然而,这里使用的符号*表示一个有些不一般的运算。直观上,它类似于矩阵向量积,但它最内部的运算不是标量的乘法运算而是各片的卷积和次采样。更确切地,如果lv是pv×pv片的一个长度为nv的向量,且Kv是sv×sv核的一个nv+1×nv矩阵,那么,w=Kv*lv表示w为pv+1×pv+1片的一个长度为nv+1的向量,且
w &lang; i &rang; &lang; x , y &rang; = &Sigma; j < n v &Sigma; &zeta; < s v &Sigma; &eta; < s v K &lang; i , j &rang; &lang; &zeta; , &eta; &rang; v l &lang; j &rang; &lang; 2 x + &zeta; , 2 y + &eta; &rang; v - - - ( 4 . 13 )
p v + 1 = p v - s v 2 + 1 - - - ( 4.14 )
可以看出,上述是全连接情形下等式的泛化,因为当pv,sv=1时,那么等式(4.12),(4.13)和(4.14)会变成全连接网络的等式。
4.5卷积神经网络——误差函数
上述全连接网络中的误差函数的等式也可应用到卷积网络中。
4.6卷积神经网络——反向传递
如上所述,在反向传递过程中,利用E对网络中的每个变量求偏导数,求得E的梯度。首先计算:
Figure S2006800313052D00091
如前所述,其中,表示元素级乘法运算,σ′为用作“压缩函数”的tanh的元素级应用。由等式(4.15),导数可概括为:
Figure S2006800313052D00092
Figure S2006800313052D00093
Figure S2006800313052D00094
其中,(Kv)T为Kv的矩阵转置。
注意到,本申请所使用的算子*′和′是非标准性的。算子′类似于一个外积,但其中的卷积和次采样代替了最内部的乘法运算。如果
Figure S2006800313052D00095
是pv+1×pv+1片的长度nv+1向量,且lv+1是pv×pv片的长度nv向量,那么表示,M为sv×sv片的一个nv+1×nv矩阵,且有:
Figure S2006800313052D00097
以及
sv=pv-2pv+1-2                     (4.20)
算子*′类似于算子*的逆,因为它扩展了而非收缩卷积自变量。如果M是sv×sv核的一个nv×nv+1阵列,且
Figure S2006800313052D00098
是pv+1×pv+1片的一个长度nv+1向量,那么,
Figure S2006800313052D00099
表示u为pv×pv片的一个长度向量,且:
pv=2pv+1+sv-2                     (4.22)
其中,“*′cond”相当于满足以下四个条件:
(x-ξ)|2                           (4.23)
(y-η)|2                           (4.24)
0 &le; x - &xi; 2 < p v + 1 - - - ( 4.25 )
以及
0 &le; y - &eta; 2 < p v + 1 - - - ( 4.26 )
同上,当pv,sv=1时,这些反向传递公式则变成全连接网络的等式。
4.7其他层的建模
在实际应用中,卷积神经网络既有卷积也有全连接,也就是说,在有些层中pv,sv>1,在有些层中pv,sv=1。因为每一层都能作为卷积层进行数学建模(因为它是全连接层的泛化),所以把全连接层当作一个特例并使用更简单的公式,在计算上更有效。
此外,还有另一种特殊情况可称为“过渡”层。这时,pv,sv>1但pv+1=1。在这种情况下,正向传递简化为:
l i v + 1 = &sigma; ( &Sigma; j < n v &Sigma; &xi; < s v &Sigma; &eta; < s v K &lang; i , j &rang; &lang; &xi; , &eta; &rang; v l &lang; j &rang; &lang; 2 x + &xi; , 2 y + &eta; &rang; v + b i v ) - - - ( 4.27 )
同样地,反向传递简化为:
Figure S2006800313052D00102
以及
Figure S2006800313052D00103
4.8多级求和运算
像素着色器单元的数据并行性质使其很难进行加法运算。因为每个像素上的结果不能依赖于其他像素上的结果,要重新使之有效的一个方法就是在多次传播中进行加法运算,其中,每次传播都加上一些固定数量的水平相邻的片。如果A是p×p片的一个n×m阵列,那么函数Sr可定义为:
S r ( A ) &lang; i , j &rang; &lang; x , y &rang; = &Sigma; j r = rj rj + f - 1 I { j r < m } A &lang; i , j &rang; &lang; x , y &rang; - - - ( 4.30 )
图7例示了这种多级加法运算的一个例子。在图7中,一矩阵710需要在每行上相加。现给出一行做为示例。在图7的示例中,矩阵中的元素每四个分组相加,所以,第一组四个元素的和加入到一过渡和矩阵720中对应行的第一个元素。同样地,第二组的四个元素加入到对应行的第二个元素,依次类推。然后,在第二次传递中,过渡和矩阵的四个元素相加得到该行的总和。
4.9运行条件的实现
由于GPU的单指令、多数据(SIMD)的性质,运行条件可能成为影响性能的重大负担。在许多像素着色器程序编码模型中,有多种不同的方法可以对这些运行条件进行编码。然而,在测试中发现,指令if,指令cmp和(p0)predicate的运行速度都很慢。
为了避免这一点,当运行条件检查边界条件时,发现一种有效解决的方法是一起删除所有运行条件,并且将GPU的输入级设置为“border color sampling(边界颜色采样)”。这使纹理的定义域以外的所有访问返回零。对于非边界性限制条件,发现将运行条件编码至一浮点数中最有效,该浮点数当且仅当条件为真时,大于零。这个数可结合一足够大的因子通过指令mul_sat标准化为零或1。这将重新建立公式中所使用的I{c}
4.10其他实现细节
除了执行计算所需的时间之外,GPU中的每次传递都有一个固定性能开支。此外,包含在GPU驱动程序中的编译器通常无法优化像素着色器程序。为了实现良好性能,这些因素使得合并每个像素着色器程序中尽可能多的计算显得非常重要。
现有的为CPU而设计的卷积神经网络的实现,把计算的每个概念组成部分视为一可分离函数,例如卷积、子采样以及它们的衍生物。前面的逐步推导公式的分析推导针对GPU提出了优化,减少了这项开支。
另外,因为在GPU上分配和解除分配的开支巨大,为将费用减到最小,在一个较佳实现中,在过程开始时就定义所有像素着色器程序,为所有纹理分配地址,一直重复使用直到过程结束。通常认为,CPU和GPU之间的数据传输开支昂贵,但是因为数据量相对较小,可以在不进行不牺牲大量时间优化的情况下完成。例如,在一个实现中,每个训练样本所需传递的仅仅是与输入(通常是29×29像素)相应的像素片和正确的分类。
5.计算环境
上述神经网络训练方法可以在执行数字媒体信号处理的各种设备中实施,包括:计算机;图像和视频记录、传输和接收设备;便携式视频播放器;视频会议等。上述技术可在硬件电路中实施,也可用在计算机或其他计算环境中执行的数字媒体处理软件来实现,所述计算环境例如图8所示的环境。
图8例示了一个普遍的合适的计算环境(800)的示例,上述具体内容可以在该环境中实现。因为本发明可以实现于多样的通用或专用计算环境中,计算环境(800)不用来限制本发明的使用范围或功能范围。
参见图8,计算环境(800)包括至少一个处理单元(810)、一个GPU(815)和存储器(820)。在图8中,最基本的配置(830)包括在虚线内。处理单元(810)执行计算机可执行指令,该处理单元(810)可以是一真实或虚拟处理器。在一多处理系统中,多处理单元执行计算机可执行指令以增强处理能力。存储器(820)可以是易失性存储器(例如:寄存器、高速缓存、RAM)、非易失性存储器(例如:ROM、EEPROM、闪存等),或两者的组合。存储器(820)存储执行上述编码器/解码器和有效的转换系数编码/解码技术的软件(880)。GPU(815)与处理单元810整合在一单个电路板上或包含在不同电路板中。在一个实现中,GPU(815)有如图3所示的结构。
一计算环境可能有其他特征。例如,计算环境(800)包括存储器(800)、一个或多个输入设备(850)、一个或多个输出设备(860)和一个或多个通信连接(870)。像总线、控制器或网络这样的相互连接机构(图中未示出)相互连接计算环境(800)中的各组件。通常地,操作系统软件(图中未示出)为计算环境(800)中执行的其他软件提供一操作环境,并且协调计算环境(800)中的各组件的活动。
存储器(840)可以是可移动的或不可移动的,并且包括磁盘、磁带或磁带盒、CD-ROMs,CD-RWs,DVDs,或其他可用来存储信息并且能在计算环境(800)中访问的介质。存储器(840)存储执行上述神经网络训练方法的软件的指令(880)。
输入设备(850)可以是触摸输入设备如键盘、鼠标、笔或跟踪球、一声音输入设备、一扫描设备、或其他向计算环境(800)提供输入的设备。对于音频来说,输入设备(850)可以是一声卡或其他可接收模拟或数字形式音频输入的类似的设备,或一向计算环境提供音频样本的CD-ROM阅读器。输出设备(860)可以是一显示器、打印机、扬声器、CD记录器、或其他能在计算环境(800)中提供输出的其他设备。
通信连接(870)能通过通信介质与其他计算实体进行通信。通信介质传递信息,如:计算机可执行指令、压缩音频或视频信息、或调制的数据信号中的其他数据。调制的数据信号通过设定或改变其一个或多个特征的方法来实现信号内信息的编码。作为例子而非限制,通信媒介包括应用了电、光、射频、红外、声,或其他载体的有线或无线技术。
这里的数字媒体处理技术可在计算机可读媒体的一般上下文中描述。计算机可读媒体是任何可在一计算机环境中被访问的可用媒体。作为例子而非限制,计算机可读媒体包括存储器(820)、存储器(840)、通信媒体和它们的任意组合。
这里的神经网络训练技术可以在计算机可执行指令的一般上下文中描述,例如包括在程序模块中的计算机可执行指令,在一目标真实或虚拟处理器上的计算环境中执行的计算机可执行指令。一般地,程序模块包括执行具体任务或实现具体抽象数据类型的例程、程序、程序库、对象、类、组件、数据结构等。程序模块的功能可以在上述各实施例中的程序模块中组合或分离。程序模块的计算机可执行指令可以在本地或分布式计算环境中执行。
为了便于表述,本具体实施方式部分使用了如“确定”、“生成”、“调整”和“应用”之类的术语来描述一计算环境中的计算机运作。这些术语是对计算机运作的高度抽象,不应与人类的活动混淆。与这些术语对应的真实的计算机运作根据实现而改变。
由于这里描述的主题有多种可能的变形,因此本发明的所有实施例,以及等价的方法都在本发明所要求保护的范围之内。

Claims (20)

1.一种训练卷积神经网络以利用图形处理单元(“GPU”)以及一个或多个GPU可执行程序可读的图形数据来识别图像的计算机实现的方法,所述图形数据表示所述卷积神经网络的状态,所述方法包括:
在GPU上执行一个或多个GPU可执行程序,以在所述卷积神经网络中执行一正向传递;
在GPU上执行一个或多个GPU可执行程序,以在所述卷积神经网络中执行一反向传递;
在GPU上执行一个或多个GPU可执行程序,以基于反向传递的结果修正所述图形数据;以及
重复执行一个或多个GPU可执行程序,以执行正向传递、反向传递,并且修正所述图形数据,直到所述卷积神经网络得到训练。
2.如权利要求1所述的方法,其特征在于,所述图形数据包括表示一个或多个神经网络变量的一个或多个纹理。
3.如权利要求2所述的方法,其特征在于:
所述一个或多个纹理包括二维纹理;以及
至少一个或多个所述纹理表示一个超过二维的神经网络变量,该神经网络变量已被扁平化为二维。
4.如权利要求2所述的方法,其特征在于:一纹理中所表示的值的地址通过一输出纹理的左上角的x和y的偏移量坐标的线性组合来确定。
5.如权利要求1所述的方法,其特征在于:
所述GPU可执行程序以一个或多个像素着色器程序的形式写入。
6.如权利要求1所述的方法,其特征在于,所述图形数据利用梯度下降来进行调整。
7.如权利要求6所述的方法,其特征在于:
所述一个或多个程序利用公式来计算偏导数以确定一梯度;以及
所述公式用代数方法进行组合和简化以减少对像素着色器程序的调用。
8.如权利要求1所述的方法,其特征在于:
所述神经网络包括一个或多个全连接层;以及
所述一个或多个GPU可执行程序包括利用了全连接层的单独公式的对于一个或多个全连接层特定的一个或多个GPU可执行程序。
9.如权利要求1所述的方法,其特征在于:
所述神经网络包括一个或多个过渡层;以及
所述一个或多个GPU可执行程序包括利用了过渡层的单独公式的对于所述一个或多个过渡层特定的一个或多个GPU可执行程序。
10.如权利要求1所述的方法,其特征在于,所述图形数据描述覆盖视口的单一三角形。
11.如权利要求1所述的方法,其特征在于:
所述一个或多个GPU可执行程序包括一个或多个求和运算;以及
所述一个或多个求和运算被分入到多次传递中。
12.如权利要求1所述的方法,其特征在于,所述卷积神经网络执行手写识别。
13.一种或多种包括描述由如权利要求1所述的过程训练的卷积网络的数据的计算机可读媒体。
14.一种或多种包括指令的计算机可读媒体,所述指令在一图形卡上执行时使所述图形卡执行一种训练神经网络的方法,所述方法包括:
接收表示所述神经网络的多个纹理;
基于多个输入数据计算所述神经网络的多次正向传递;
对于所述多次正向传递中的每一次,用一梯度函数计算所述神经网络的反向传递;以及
对于每次反向传递,基于所述梯度函数的结果,改变包含在所述多个纹理中的信息以影响所述神经网络的训练。
15.如权利要求14所述的计算机可读媒体,其特征在于:
所述神经网络被训练来识别手写字符;
所述多个纹理至少部分地表示卷积核;以及
所述卷积核对表示手写字符的输入数据进行处理。
16.如权利要求14所述的计算机可读媒体,其特征在于,所述多个纹理至少部分地表示一全连接神经网络层和一过渡层。
17.一种被配置成执行训练手写识别神经网络的方法的图形处理单元,所述图形处理单元包括:
被配置成存储一个或多个图形纹理的数据存储器,所述图形纹理描述所述手写识别神经网络;
通过像素着色器程序来配置的多个像素着色器单元,用以:
对手写输入数据执行所述神经网络的重复的正向传递和反向传递;
将结果存储到所述多个图形纹理中;以及
基于所述正向和反向传递的结果修正所述多个纹理来训练所述神经网络。
18.如权利要求17所述的图形处理单元,其特征在于,所述手写体识别神经网络至少部分地包括一卷积层和一全连接层。
19.如权利要求17所述的图形处理单元,其特征在于,所述一个或多个图形纹理被配置成描述一简化的三角形图像,以使所述图形处理单元所执行的所有处理只需对所述像素着色器单元的部分进行计算。
20.如权利要求17所述的图形处理单元,其特征在于,所述像素着色器单元被配置成使得所述神经网络的正向传递和反向传递中的求和运算分成多个更小的求和运算。
CN2006800313052A 2005-08-31 2006-08-17 在图形处理单元上训练卷积神经网络 Expired - Fee Related CN101253493B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/217,711 US7747070B2 (en) 2005-08-31 2005-08-31 Training convolutional neural networks on graphics processing units
US11/217,711 2005-08-31
PCT/US2006/032349 WO2007027452A1 (en) 2005-08-31 2006-08-17 Training convolutional neural networks on graphics processing units

Publications (2)

Publication Number Publication Date
CN101253493A true CN101253493A (zh) 2008-08-27
CN101253493B CN101253493B (zh) 2012-04-25

Family

ID=37804147

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800313052A Expired - Fee Related CN101253493B (zh) 2005-08-31 2006-08-17 在图形处理单元上训练卷积神经网络

Country Status (10)

Country Link
US (1) US7747070B2 (zh)
EP (1) EP1922637A4 (zh)
KR (1) KR101298393B1 (zh)
CN (1) CN101253493B (zh)
AU (1) AU2006285161A1 (zh)
BR (1) BRPI0615219A2 (zh)
CA (1) CA2619973A1 (zh)
IL (1) IL189124A0 (zh)
RU (1) RU2424561C2 (zh)
WO (1) WO2007027452A1 (zh)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346622A (zh) * 2013-07-31 2015-02-11 富士通株式会社 卷积神经网络分类器及其分类方法和训练方法
CN105550750A (zh) * 2015-12-21 2016-05-04 长沙网动网络科技有限公司 提高卷积神经网络识别精度的方法
CN105894087A (zh) * 2015-01-26 2016-08-24 华为技术有限公司 用于神经网络中训练参数集的系统和方法
CN106056529A (zh) * 2015-04-03 2016-10-26 阿里巴巴集团控股有限公司 一种对用于图片识别的卷积神经网络训练的方法与设备
CN106203619A (zh) * 2015-05-29 2016-12-07 三星电子株式会社 数据优化的神经网络遍历
CN106471526A (zh) * 2014-08-29 2017-03-01 谷歌公司 使用深度神经网络来处理图像
CN106855996A (zh) * 2016-12-13 2017-06-16 中山大学 一种基于卷积神经网络的灰阶图像着色方法及其装置
CN106875203A (zh) * 2015-12-14 2017-06-20 阿里巴巴集团控股有限公司 一种确定商品图片的款式信息的方法及装置
WO2017113205A1 (zh) * 2015-12-30 2017-07-06 中国科学院深圳先进技术研究院 一种基于深度卷积神经网络的快速磁共振成像方法及装置
CN107145902A (zh) * 2017-04-27 2017-09-08 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法、装置及移动终端
CN107292319A (zh) * 2017-08-04 2017-10-24 广东工业大学 一种基于可变形卷积层的特征图像提取的方法及装置
CN107292385A (zh) * 2016-03-31 2017-10-24 阿里巴巴集团控股有限公司 一种类Alexnet网络的模型训练方法和装置
CN107315571A (zh) * 2016-04-27 2017-11-03 北京中科寒武纪科技有限公司 一种用于执行全连接层神经网络正向运算的装置和方法
CN107315569A (zh) * 2016-04-27 2017-11-03 北京中科寒武纪科技有限公司 一种用于执行RMSprop梯度下降算法的装置及方法
CN107615306A (zh) * 2015-06-03 2018-01-19 三菱电机株式会社 推论装置和推论方法
CN107704267A (zh) * 2016-04-29 2018-02-16 北京中科寒武纪科技有限公司 一种卷积神经网络运算指令及其方法
CN107710238A (zh) * 2015-06-29 2018-02-16 微软技术许可有限责任公司 具有堆栈存储器的硬件加速器上的深度神经网络处理
CN107808394A (zh) * 2017-11-16 2018-03-16 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法及移动终端
CN108027885A (zh) * 2015-06-05 2018-05-11 渊慧科技有限公司 空间变换器模块
CN108268944A (zh) * 2016-12-31 2018-07-10 上海兆芯集成电路有限公司 具有可重塑之存储器之神经网络单元
CN108431832A (zh) * 2015-12-10 2018-08-21 渊慧科技有限公司 利用外部存储器扩增神经网络
CN108701210A (zh) * 2016-02-02 2018-10-23 北京市商汤科技开发有限公司 用于cnn网络适配和对象在线追踪的方法和系统
CN108765247A (zh) * 2018-05-15 2018-11-06 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及设备
CN109643395A (zh) * 2016-05-24 2019-04-16 英特尔公司 自适应窗口机制
CN109754064A (zh) * 2017-11-07 2019-05-14 三星电子株式会社 执行解卷积的神经网络的方法和装置
CN110059813A (zh) * 2019-02-13 2019-07-26 阿里巴巴集团控股有限公司 利用gpu集群更新卷积神经网络的方法、装置及设备
CN110520856A (zh) * 2017-04-17 2019-11-29 微软技术许可有限责任公司 处理不邻近存储器作为邻近存储器以提高神经网络的性能
TWI688904B (zh) * 2019-01-30 2020-03-21 中強光電股份有限公司 神經網路的訓練方法、基於神經網路的分類方法及其裝置
CN111353589A (zh) * 2016-01-20 2020-06-30 中科寒武纪科技股份有限公司 用于执行人工神经网络正向运算的装置和方法
CN111353588A (zh) * 2016-01-20 2020-06-30 中科寒武纪科技股份有限公司 用于执行人工神经网络反向训练的装置和方法
US10795481B2 (en) 2018-04-13 2020-10-06 Silicon Integrated Systems Corp Method and system for identifying tap events on touch panel, and touch-controlled end product
CN111860812A (zh) * 2016-04-29 2020-10-30 中科寒武纪科技股份有限公司 一种用于执行卷积神经网络训练的装置和方法

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9799098B2 (en) * 2007-04-24 2017-10-24 Massachusetts Institute Of Technology Method and apparatus for image processing
JP5184824B2 (ja) * 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
US8200025B2 (en) 2007-12-07 2012-06-12 University Of Ottawa Image classification and search
KR20110089649A (ko) * 2010-02-01 2011-08-09 삼성전자주식회사 병렬 연산 처리 방법 및 장치
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US8315305B2 (en) 2010-03-26 2012-11-20 Brain Corporation Systems and methods for invariant pulse latency coding
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9193075B1 (en) 2010-08-26 2015-11-24 Brain Corporation Apparatus and methods for object detection via optical flow cancellation
US9047568B1 (en) 2012-09-20 2015-06-02 Brain Corporation Apparatus and methods for encoding of sensory data using artificial spiking neurons
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US8719199B2 (en) 2011-09-21 2014-05-06 Brain Corporation Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules
US9104973B2 (en) 2011-09-21 2015-08-11 Qualcomm Technologies Inc. Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel
US8725662B2 (en) 2011-09-21 2014-05-13 Brain Corporation Apparatus and method for partial evaluation of synaptic updates based on system events
US9460387B2 (en) 2011-09-21 2016-10-04 Qualcomm Technologies Inc. Apparatus and methods for implementing event-based updates in neuron networks
US9412064B2 (en) 2011-08-17 2016-08-09 Qualcomm Technologies Inc. Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update
US8725658B2 (en) 2011-09-21 2014-05-13 Brain Corporation Elementary network description for efficient memory management in neuromorphic systems
US9098811B2 (en) 2012-06-04 2015-08-04 Brain Corporation Spiking neuron network apparatus and methods
US9117176B2 (en) 2011-09-21 2015-08-25 Qualcomm Technologies Inc. Round-trip engineering apparatus and methods for neural networks
US10210452B2 (en) 2011-09-21 2019-02-19 Qualcomm Incorporated High level neuromorphic network description apparatus and methods
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9129221B2 (en) 2012-05-07 2015-09-08 Brain Corporation Spiking neural network feedback apparatus and methods
RU2504006C1 (ru) * 2012-06-05 2014-01-10 Александр Николаевич Цуриков Способ обучения искусственной нейронной сети
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9256823B2 (en) 2012-07-27 2016-02-09 Qualcomm Technologies Inc. Apparatus and methods for efficient updates in spiking neuron network
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
CN103279759B (zh) * 2013-06-09 2016-06-01 大连理工大学 一种基于卷积神经网络的车辆前方可通行性分析方法
CN103366180B (zh) * 2013-06-14 2016-06-01 山东大学 一种基于自动特征学习的细胞图像分割方法
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
RU2553947C2 (ru) * 2013-08-16 2015-06-20 федеральное государственное автономное образовательное учреждение высшего образования "Нижегородский государственный университет им. Н.И.Лобачевского" Способ обучения биологической нейронной сети культуры, выращенной на мультиэлектродной матрице
US9489623B1 (en) 2013-10-15 2016-11-08 Brain Corporation Apparatus and methods for backward propagation of errors in a spiking neuron network
US9400925B2 (en) * 2013-11-15 2016-07-26 Facebook, Inc. Pose-aligned networks for deep attribute modeling
CN104809426B (zh) * 2014-01-27 2019-04-05 日本电气株式会社 卷积神经网络的训练方法、目标识别方法及装置
CN106462800A (zh) 2014-04-11 2017-02-22 谷歌公司 使卷积神经网络的训练并行化
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10194163B2 (en) 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
CN104200224A (zh) * 2014-08-28 2014-12-10 西北工业大学 基于深度卷积神经网络的无价值图像去除方法
US10055850B2 (en) 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
US10417525B2 (en) 2014-09-22 2019-09-17 Samsung Electronics Co., Ltd. Object recognition with reduced neural network weight precision
CN104268521A (zh) * 2014-09-23 2015-01-07 朱毅 一种基于非限定类别的卷积神经网络的图像识别方法
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
US10255547B2 (en) * 2014-12-04 2019-04-09 Nvidia Corporation Indirectly accessing sample data to perform multi-convolution operations in a parallel processing system
WO2016090520A1 (en) * 2014-12-10 2016-06-16 Xiaogang Wang A method and a system for image classification
US10275688B2 (en) 2014-12-17 2019-04-30 Nokia Technologies Oy Object detection with neural network
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
SG11201706127RA (en) 2015-01-28 2017-08-30 Google Inc Batch normalization layers
CN104866810B (zh) * 2015-04-10 2018-07-13 北京工业大学 一种深度卷积神经网络的人脸识别方法
CN104866550A (zh) * 2015-05-12 2015-08-26 湖北光谷天下传媒股份有限公司 一种模拟神经网络的文本过滤方法
US10452971B2 (en) * 2015-06-29 2019-10-22 Microsoft Technology Licensing, Llc Deep neural network partitioning on servers
US10157279B2 (en) * 2015-07-15 2018-12-18 Cylance Inc. Malware detection
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
US11074492B2 (en) 2015-10-07 2021-07-27 Altera Corporation Method and apparatus for performing different types of convolution operations with the same processing elements
US10380479B2 (en) * 2015-10-08 2019-08-13 International Business Machines Corporation Acceleration of convolutional neural network training using stochastic perforation
KR102509819B1 (ko) 2015-11-04 2023-03-14 삼성전자주식회사 신호 처리 장치 및 신호 처리 방법
US9904874B2 (en) 2015-11-05 2018-02-27 Microsoft Technology Licensing, Llc Hardware-efficient deep convolutional neural networks
CN106708499B (zh) * 2015-11-13 2020-10-27 财团法人工业技术研究院 绘图处理程序的分析方法与分析系统
CN105469100B (zh) * 2015-11-30 2018-10-12 广东工业大学 基于深度学习的皮肤活检图像病理特性识别方法
WO2017100903A1 (en) * 2015-12-14 2017-06-22 Motion Metrics International Corp. Method and apparatus for identifying fragmented material portions within an image
US9785855B2 (en) 2015-12-17 2017-10-10 Conduent Business Services, Llc Coarse-to-fine cascade adaptations for license plate recognition with convolutional neural networks
US10210430B2 (en) * 2016-01-26 2019-02-19 Fabula Ai Limited System and a method for learning features on geometric domains
US10013653B2 (en) * 2016-01-26 2018-07-03 Università della Svizzera italiana System and a method for learning features on geometric domains
US11755913B2 (en) * 2016-03-11 2023-09-12 Telecom Italia S.P.A Convolutional neural networks, particularly for image analysis
US10420523B2 (en) 2016-03-21 2019-09-24 The Board Of Trustees Of The Leland Stanford Junior University Adaptive local window-based methods for characterizing features of interest in digital images and systems for practicing same
US20170277955A1 (en) * 2016-03-23 2017-09-28 Le Holdings (Beijing) Co., Ltd. Video identification method and system
US9847974B2 (en) 2016-04-28 2017-12-19 Xerox Corporation Image document processing in a client-server system including privacy-preserving text recognition
US10303977B2 (en) 2016-06-28 2019-05-28 Conduent Business Services, Llc System and method for expanding and training convolutional neural networks for large size input images
CN106355247B (zh) * 2016-08-16 2019-03-08 算丰科技(北京)有限公司 数据处理方法和装置、芯片和电子设备
US11080591B2 (en) 2016-09-06 2021-08-03 Deepmind Technologies Limited Processing sequences using convolutional neural networks
KR102353284B1 (ko) 2016-09-06 2022-01-19 딥마인드 테크놀로지스 리미티드 신경망을 사용하여 오디오 생성
MY198128A (en) * 2016-09-08 2023-08-04 Goh Soo Siah Object detection from visual search queries
EP3523751A4 (en) 2016-10-04 2020-05-06 Magic Leap, Inc. EFFICIENT DATA ARRANGEMENTS FOR CONVOLUTIONAL NEURAL NETWORKS
CN110023963B (zh) 2016-10-26 2023-05-30 渊慧科技有限公司 使用神经网络处理文本序列
KR20180060149A (ko) 2016-11-28 2018-06-07 삼성전자주식회사 컨볼루션 처리 장치 및 방법
US10360494B2 (en) * 2016-11-30 2019-07-23 Altumview Systems Inc. Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules
EP3330898A1 (en) * 2016-12-01 2018-06-06 Altera Corporation Method and apparatus for performing different types of convolution operations with the same processing elements
US10657424B2 (en) * 2016-12-07 2020-05-19 Samsung Electronics Co., Ltd. Target detection method and apparatus
US20180165845A1 (en) * 2016-12-09 2018-06-14 Free Construction Sp. Z o.o. Method of Analysis of Visualised Data
KR20180073118A (ko) 2016-12-22 2018-07-02 삼성전자주식회사 컨볼루션 신경망 처리 방법 및 장치
US10437878B2 (en) * 2016-12-28 2019-10-08 Shutterstock, Inc. Identification of a salient portion of an image
US11334836B2 (en) * 2017-01-04 2022-05-17 MSM Holdings Pte Ltd System and method for analyzing media for talent discovery
US10810721B2 (en) * 2017-03-14 2020-10-20 Adobe Inc. Digital image defect identification and correction
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
RU2651147C1 (ru) * 2017-03-27 2018-04-18 Акционерное общество "ЭЛВИС-НеоТек" Устройство и способ каскадной обработки потока изображений с помощью свёрточных нейронных сетей
RU173468U1 (ru) * 2017-03-27 2017-08-29 Акционерное общество "ЭЛВИС-НеоТек" Устройство каскадной обработки потока изображений с помощью свёрточных нейронных сетей
US10546237B2 (en) 2017-03-30 2020-01-28 Atomwise Inc. Systems and methods for correcting error in a first classifier by evaluating classifier output in parallel
US10475165B2 (en) * 2017-04-06 2019-11-12 Disney Enterprises, Inc. Kernel-predicting convolutional neural networks for denoising
US11037330B2 (en) 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
US10261903B2 (en) * 2017-04-17 2019-04-16 Intel Corporation Extend GPU/CPU coherency to multi-GPU cores
US11164071B2 (en) * 2017-04-18 2021-11-02 Samsung Electronics Co., Ltd. Method and apparatus for reducing computational complexity of convolutional neural networks
US10417731B2 (en) 2017-04-24 2019-09-17 Intel Corporation Compute optimization mechanism for deep neural networks
US10417734B2 (en) 2017-04-24 2019-09-17 Intel Corporation Compute optimization mechanism for deep neural networks
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
RU2656990C1 (ru) * 2017-09-11 2018-06-07 Самсунг Электроникс Ко., Лтд. Система и способ для искусственной нейронной сети, инвариантной к сдвигу
KR101934443B1 (ko) 2017-09-20 2019-01-02 대한민국 합성곱신경망과 이미지 추출을 이용한 주자본과 목판본의 분류 정보 제공 방법
US10747999B2 (en) * 2017-10-18 2020-08-18 The Trustees Of Columbia University In The City Of New York Methods and systems for pattern characteristic detection
US10599978B2 (en) * 2017-11-03 2020-03-24 International Business Machines Corporation Weighted cascading convolutional neural networks
CN109961138B (zh) * 2017-12-14 2020-04-14 中科寒武纪科技股份有限公司 神经网络训练方法及相关产品
US11710028B2 (en) * 2017-12-30 2023-07-25 Intel Corporation Efficient convolution in machine learning environments
US11091162B2 (en) 2018-01-30 2021-08-17 Toyota Motor Engineering & Manufacturing North America, Inc. Fusion of front vehicle sensor data for detection and ranging of preceding objects
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
CN110309912B (zh) * 2018-03-27 2021-08-13 赛灵思公司 数据存取方法、装置、硬件加速器、计算设备、存储介质
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
KR102633139B1 (ko) 2018-09-07 2024-02-02 삼성전자주식회사 데이터를 추출하는 집적 회로, 그것을 포함하는 뉴럴 네트워크 프로세서 및 뉴럴 네트워크 장치
RU2704751C1 (ru) * 2018-10-08 2019-10-30 федеральное государственное бюджетное образовательное учреждение высшего образования "Пермский национальный исследовательский политехнический университет" Способ определения параметров термомеханической обработки и химического состава функциональных материалов с помощью глубокой нейронной сети
EP3864573A1 (en) 2018-10-11 2021-08-18 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
KR102533235B1 (ko) 2018-11-01 2023-05-17 서강대학교산학협력단 컨볼루션 신경망 기반의 입력 분류 장치 및 방법
WO2020093165A1 (en) * 2018-11-07 2020-05-14 Element Ai Inc. Removal of sensitive data from documents for use as training sets
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
WO2021141567A1 (en) 2020-01-06 2021-07-15 Eightfold AI Inc. System, method, and computer program for using machine learning to calibrate job description based on diversity criteria
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11030583B1 (en) 2018-12-04 2021-06-08 Eightfold AI Inc. System, method, and computer program for automatically removing data from candidate profiles that may influence bias
US11176271B1 (en) * 2018-12-04 2021-11-16 Eightfold AI Inc. System, method, and computer program for enabling a candidate to anonymously apply for a job
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11557107B2 (en) 2019-01-02 2023-01-17 Bank Of America Corporation Intelligent recognition and extraction of numerical data from non-numerical graphical representations
US11544559B2 (en) * 2019-01-08 2023-01-03 Neuralmagic Inc. System and method for executing convolution in a neural network
KR20200086546A (ko) 2019-01-09 2020-07-17 (주) 모터에이드 병렬 딥러닝 처리 시스템
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11699070B2 (en) * 2019-03-05 2023-07-11 Samsung Electronics Co., Ltd Method and apparatus for providing rotational invariant neural networks
US11119820B2 (en) * 2019-03-15 2021-09-14 Intel Corporation Local memory sharing between kernels
KR20210004229A (ko) 2019-07-03 2021-01-13 삼성전자주식회사 뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법
RU2717911C1 (ru) * 2019-08-06 2020-03-26 Общество с Ограниченной Ответственностью "Цифровые Технологии в Хирургии" Способ обучения сверточной нейронной сети осуществлять разметки телерентгенограмм в прямой и боковой проекциях
US11556450B2 (en) 2019-10-11 2023-01-17 International Business Machines Corporation Hybrid data-model parallelism for efficient deep learning
CN112785486A (zh) * 2019-11-07 2021-05-11 英特尔公司 用于图像去噪声的自适应可变形核预测网络
US11521062B2 (en) 2019-12-05 2022-12-06 International Business Machines Corporation Neural network training using a data flow graph and dynamic memory management
WO2022072796A1 (en) * 2020-10-01 2022-04-07 Supratik Mukhopadhyay System and method for an adjustable neural network
US11960982B1 (en) 2021-10-21 2024-04-16 Neuralmagic, Inc. System and method of determining and executing deep tensor columns in neural networks

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5647027A (en) * 1994-10-28 1997-07-08 Lucent Technologies Inc. Method of image enhancement using convolution kernels
US6128606A (en) 1997-03-11 2000-10-03 At&T Corporation Module for constructing trainable modular network in which each module inputs and outputs data structured as a graph
US6553131B1 (en) * 1999-09-15 2003-04-22 Siemens Corporate Research, Inc. License plate recognition with an intelligent camera
US7016529B2 (en) 2002-03-15 2006-03-21 Microsoft Corporation System and method facilitating pattern recognition
US7418128B2 (en) * 2003-07-31 2008-08-26 Microsoft Corporation Elastic distortions for automatic generation of labeled data
US7660713B2 (en) 2003-10-23 2010-02-09 Microsoft Corporation Systems and methods that detect a desired signal via a linear discriminative classifier that utilizes an estimated posterior signal-to-noise ratio (SNR)
US7219085B2 (en) * 2003-12-09 2007-05-15 Microsoft Corporation System and method for accelerating and optimizing the processing of machine learning techniques using a graphics processing unit

Cited By (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9697444B2 (en) 2013-07-31 2017-07-04 Fujitsu Limited Convolutional-neural-network-based classifier and classifying method and training methods for the same
CN104346622A (zh) * 2013-07-31 2015-02-11 富士通株式会社 卷积神经网络分类器及其分类方法和训练方法
US11809955B2 (en) 2014-08-29 2023-11-07 Google Llc Processing images using deep neural networks
CN106471526B (zh) * 2014-08-29 2019-03-08 谷歌有限责任公司 用于处理图像的方法和系统
US11462035B2 (en) 2014-08-29 2022-10-04 Google Llc Processing images using deep neural networks
CN106471526A (zh) * 2014-08-29 2017-03-01 谷歌公司 使用深度神经网络来处理图像
US10977529B2 (en) 2014-08-29 2021-04-13 Google Llc Processing images using deep neural networks
US10650289B2 (en) 2014-08-29 2020-05-12 Google Llc Processing images using deep neural networks
CN105894087A (zh) * 2015-01-26 2016-08-24 华为技术有限公司 用于神经网络中训练参数集的系统和方法
CN106056529A (zh) * 2015-04-03 2016-10-26 阿里巴巴集团控股有限公司 一种对用于图片识别的卷积神经网络训练的方法与设备
CN106203619A (zh) * 2015-05-29 2016-12-07 三星电子株式会社 数据优化的神经网络遍历
CN107615306A (zh) * 2015-06-03 2018-01-19 三菱电机株式会社 推论装置和推论方法
CN108027885A (zh) * 2015-06-05 2018-05-11 渊慧科技有限公司 空间变换器模块
US11734572B2 (en) 2015-06-05 2023-08-22 Deepmind Technologies Limited Spatial transformer modules
CN107710238A (zh) * 2015-06-29 2018-02-16 微软技术许可有限责任公司 具有堆栈存储器的硬件加速器上的深度神经网络处理
CN107710238B (zh) * 2015-06-29 2021-07-23 微软技术许可有限责任公司 具有堆栈存储器的硬件加速器上的深度神经网络处理
CN108431832B (zh) * 2015-12-10 2022-09-13 渊慧科技有限公司 利用外部存储器扩增神经网络
CN108431832A (zh) * 2015-12-10 2018-08-21 渊慧科技有限公司 利用外部存储器扩增神经网络
CN106875203A (zh) * 2015-12-14 2017-06-20 阿里巴巴集团控股有限公司 一种确定商品图片的款式信息的方法及装置
CN105550750B (zh) * 2015-12-21 2017-10-17 长沙网动网络科技有限公司 提高卷积神经网络识别精度的方法
CN105550750A (zh) * 2015-12-21 2016-05-04 长沙网动网络科技有限公司 提高卷积神经网络识别精度的方法
CN107182216A (zh) * 2015-12-30 2017-09-19 中国科学院深圳先进技术研究院 一种基于深度卷积神经网络的快速磁共振成像方法及装置
WO2017113205A1 (zh) * 2015-12-30 2017-07-06 中国科学院深圳先进技术研究院 一种基于深度卷积神经网络的快速磁共振成像方法及装置
CN107182216B (zh) * 2015-12-30 2019-06-14 中国科学院深圳先进技术研究院 一种基于深度卷积神经网络的快速磁共振成像方法及装置
CN111353589B (zh) * 2016-01-20 2024-03-01 中科寒武纪科技股份有限公司 用于执行人工神经网络正向运算的装置和方法
CN111353588B (zh) * 2016-01-20 2024-03-05 中科寒武纪科技股份有限公司 用于执行人工神经网络反向训练的装置和方法
CN111353588A (zh) * 2016-01-20 2020-06-30 中科寒武纪科技股份有限公司 用于执行人工神经网络反向训练的装置和方法
CN111353589A (zh) * 2016-01-20 2020-06-30 中科寒武纪科技股份有限公司 用于执行人工神经网络正向运算的装置和方法
CN108701210B (zh) * 2016-02-02 2021-08-17 北京市商汤科技开发有限公司 用于cnn网络适配和对象在线追踪的方法和系统
CN108701210A (zh) * 2016-02-02 2018-10-23 北京市商汤科技开发有限公司 用于cnn网络适配和对象在线追踪的方法和系统
CN107292385A (zh) * 2016-03-31 2017-10-24 阿里巴巴集团控股有限公司 一种类Alexnet网络的模型训练方法和装置
CN107315571A (zh) * 2016-04-27 2017-11-03 北京中科寒武纪科技有限公司 一种用于执行全连接层神经网络正向运算的装置和方法
CN107315571B (zh) * 2016-04-27 2020-07-31 中科寒武纪科技股份有限公司 一种用于执行全连接层神经网络正向运算的装置和方法
CN107315569A (zh) * 2016-04-27 2017-11-03 北京中科寒武纪科技有限公司 一种用于执行RMSprop梯度下降算法的装置及方法
CN107315569B (zh) * 2016-04-27 2021-06-18 中科寒武纪科技股份有限公司 一种用于执行RMSprop梯度下降算法的装置及方法
CN109375951A (zh) * 2016-04-27 2019-02-22 北京中科寒武纪科技有限公司 一种用于执行全连接层神经网络正向运算的装置和方法
CN111860812B (zh) * 2016-04-29 2024-03-01 中科寒武纪科技股份有限公司 一种用于执行卷积神经网络训练的装置和方法
CN107704267A (zh) * 2016-04-29 2018-02-16 北京中科寒武纪科技有限公司 一种卷积神经网络运算指令及其方法
CN107704267B (zh) * 2016-04-29 2020-05-08 中科寒武纪科技股份有限公司 一种卷积神经网络运算指令及其方法
CN111860812A (zh) * 2016-04-29 2020-10-30 中科寒武纪科技股份有限公司 一种用于执行卷积神经网络训练的装置和方法
CN109643395A (zh) * 2016-05-24 2019-04-16 英特尔公司 自适应窗口机制
CN109643395B (zh) * 2016-05-24 2024-03-05 英特尔公司 自适应窗口机制
CN106855996A (zh) * 2016-12-13 2017-06-16 中山大学 一种基于卷积神经网络的灰阶图像着色方法及其装置
CN106855996B (zh) * 2016-12-13 2020-01-03 中山大学 一种基于卷积神经网络的灰阶图像着色方法及其装置
CN108268944B (zh) * 2016-12-31 2020-09-11 上海兆芯集成电路有限公司 具有可重塑之存储器之神经网络单元
CN108268944A (zh) * 2016-12-31 2018-07-10 上海兆芯集成电路有限公司 具有可重塑之存储器之神经网络单元
CN110520856A (zh) * 2017-04-17 2019-11-29 微软技术许可有限责任公司 处理不邻近存储器作为邻近存储器以提高神经网络的性能
CN110520856B (zh) * 2017-04-17 2023-03-31 微软技术许可有限责任公司 处理不邻近存储器作为邻近存储器以提高神经网络的性能
CN107145902B (zh) * 2017-04-27 2019-10-11 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法、装置及移动终端
CN107145902A (zh) * 2017-04-27 2017-09-08 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法、装置及移动终端
CN107292319A (zh) * 2017-08-04 2017-10-24 广东工业大学 一种基于可变形卷积层的特征图像提取的方法及装置
CN109754064B (zh) * 2017-11-07 2024-04-12 三星电子株式会社 执行解卷积的神经网络的方法和装置
CN109754064A (zh) * 2017-11-07 2019-05-14 三星电子株式会社 执行解卷积的神经网络的方法和装置
US11960999B2 (en) 2017-11-07 2024-04-16 Samsung Electronics Co., Ltd. Method and apparatus with neural network performing deconvolution
CN107808394B (zh) * 2017-11-16 2020-05-15 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法及移动终端
CN107808394A (zh) * 2017-11-16 2018-03-16 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法及移动终端
US10795481B2 (en) 2018-04-13 2020-10-06 Silicon Integrated Systems Corp Method and system for identifying tap events on touch panel, and touch-controlled end product
CN108765247B (zh) * 2018-05-15 2023-01-10 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及设备
CN108765247A (zh) * 2018-05-15 2018-11-06 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及设备
US11669734B2 (en) 2019-01-30 2023-06-06 Coretronic Corporation Training method of neural network and classification method based on neural network and device thereof
TWI688904B (zh) * 2019-01-30 2020-03-21 中強光電股份有限公司 神經網路的訓練方法、基於神經網路的分類方法及其裝置
US11640531B2 (en) 2019-02-13 2023-05-02 Advanced New Technologies Co., Ltd. Method, apparatus and device for updating convolutional neural network using GPU cluster
CN110059813A (zh) * 2019-02-13 2019-07-26 阿里巴巴集团控股有限公司 利用gpu集群更新卷积神经网络的方法、装置及设备
CN110059813B (zh) * 2019-02-13 2021-04-06 创新先进技术有限公司 利用gpu集群更新卷积神经网络的方法、装置及设备

Also Published As

Publication number Publication date
CN101253493B (zh) 2012-04-25
CA2619973A1 (en) 2007-03-08
KR20080042083A (ko) 2008-05-14
WO2007027452A1 (en) 2007-03-08
RU2424561C2 (ru) 2011-07-20
AU2006285161A1 (en) 2007-03-08
IL189124A0 (en) 2008-08-07
KR101298393B1 (ko) 2013-08-20
EP1922637A4 (en) 2010-03-17
BRPI0615219A2 (pt) 2011-05-10
US20070047802A1 (en) 2007-03-01
US7747070B2 (en) 2010-06-29
RU2008107746A (ru) 2009-09-10
EP1922637A1 (en) 2008-05-21

Similar Documents

Publication Publication Date Title
CN101253493B (zh) 在图形处理单元上训练卷积神经网络
CN107239733A (zh) 连续手写字识别方法及系统
CN111860398B (zh) 遥感图像目标检测方法、系统及终端设备
CN107944545B (zh) 应用于神经网络的计算方法及计算装置
CN110222760B (zh) 一种基于winograd算法的快速图像处理方法
CN109902723A (zh) 图像处理方法及装置
CN111353505B (zh) 基于可联合实现语义分割和景深估计的网络模型的装置
CN111680678A (zh) 目标区域识别方法、装置、设备及可读存储介质
CN111739037B (zh) 一种针对室内场景rgb-d图像的语义分割方法
CN113870293A (zh) 图像处理方法、装置、电子设备及存储介质
CN111382759A (zh) 一种像素级分类方法、装置、设备及存储介质
CN111986117A (zh) 一种算术作业批改系统及方法
US20220044104A1 (en) Method and apparatus for forward computation of neural network, and computer-readable storage medium
CN114283347A (zh) 目标检测方法、系统、智能终端及计算机可读存储介质
US10747845B2 (en) System, method and apparatus for computationally efficient data manipulation
CN111179272A (zh) 一种面向道路场景的快速语义分割方法
Han et al. Spatial steganalysis based on non-local block and multi-channel convolutional networks
KR20210109327A (ko) 인공신경망의 학습 방법 및 장치
CN112949841B (zh) 一种基于Attention的CNN神经网络的行人重识别方法
CN113313127B (zh) 文本图像识别方法、装置、计算机设备和存储介质
US20230012236A1 (en) Systems and methodologies for automated classification of images of stool in diapers
CN113762241A (zh) 场景文字识别模型的训练方法与识别方法及装置
CN112001479B (zh) 基于深度学习模型的处理方法、系统及电子设备
CN114863132A (zh) 图像空域信息的建模与捕捉方法、系统、设备及存储介质
CN112613574A (zh) 一种图像分类模型的训练方法、图像分类方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150430

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150430

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120425

Termination date: 20140817

EXPY Termination of patent right or utility model