CN105488563A - 面向深度学习的稀疏自适应神经网络、算法及实现装置 - Google Patents

面向深度学习的稀疏自适应神经网络、算法及实现装置 Download PDF

Info

Publication number
CN105488563A
CN105488563A CN201510944909.7A CN201510944909A CN105488563A CN 105488563 A CN105488563 A CN 105488563A CN 201510944909 A CN201510944909 A CN 201510944909A CN 105488563 A CN105488563 A CN 105488563A
Authority
CN
China
Prior art keywords
neural network
layer
adaptive neural
degree
depth study
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510944909.7A
Other languages
English (en)
Inventor
周喜川
李胜力
余磊
李坤平
赵昕
杨帆
谭跃
唐枋
胡盛东
甘平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201510944909.7A priority Critical patent/CN105488563A/zh
Publication of CN105488563A publication Critical patent/CN105488563A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit

Abstract

本发明公开了一种面向深度学习的稀疏自适应神经网络,包括至少一层自适应有限玻尔兹曼机,所述至少一层自适应有限玻尔兹曼机包括可视层和隐藏层,所述可视层和隐藏层之间的连接是稀疏的。在本发明所述的神经网络中,可视层与隐藏层的连接是稀疏的;同时用32bit实数表示一个连接被优化成用1bit整数表示一个连接,这样的优化方式既不影响模式识别又可以满足精确性要求。本发明仅需要定点运算和少量乘法运算,就可以在单芯片上实现大规模神经网络。

Description

面向深度学习的稀疏自适应神经网络、算法及实现装置
技术领域
本发明涉及集成电路/神经网络/大数据计算领域,具体涉及片上深度自适应神经网络的模型构建与优化领域。
背景技术
在该技术领域,神经网络模型的实现,现有的技术主要分为软件实现和硬件实现。
软件实现:通常基于冯·诺依曼架构的通用处理器(CPU)或通用图形处理器(GPGPU)来运行特定的神经网络算法。神经网络模型,如经典的DBN模型,其神经元之间的连接需要用一个存储权重值的矩阵实现。随着神经元数目的增加,该权重矩阵的规模会按神经元数量的平方关系O(n2)爆炸式地增长,这意味着需要消耗大量的存储资源(如内存)。受限于冯·诺依曼架构的固有缺陷,计算单元与存储单元间的数据交换需要很大的带宽,在神经网络模型的实现中业已成为瓶颈。且大量的数据交换和大量存储资源的使用也意味着更高的功耗,这种远远高于生物系统(如大脑)的功耗,这对于片上应用、实时处理的应用是显然过高的,对于服务器端的应用也是难以接受的。
硬件实现:可以进一步细分为模拟电路实现、数字电路实现、混合实现,其局限如下:
含有模拟电路的硬件实现:1.利用模拟电路实现人工神经网络容易受温度、噪声等外部因素影响,导致计算精确度不高;2.模拟电路难以实现大规模高密度的神经元的集成;3.难以进行训练与实际应用,多为实验性质。
现有数字集成电路实现:1.相关训练算法耗时较长,以往研究主要针对浅层的神经网络;2.现有深度神经网络,参数(如权值)稠密,占有资源大,功耗高,不利于大规模集成;3.神经网络浮点运算计算量巨大,影响整体运行效率。
例如要在现有深度神经网络模型在芯片上实现集成百万数量级的神经元,主要困难在于有限的集成电路片上内存要保存与百万数量级神经元全连接有关的参数,通常这些参数是实数的,稠密的。而采用传统的方法量化浮点型数据,直接采用定点计算,往往导致丢失精确性。这些问题亟待优化解决。同时,生物神经科学的发展表明,大脑皮层神经元的连接是稀疏的。
发明内容
鉴于此,本发明的目的之一是提供一种面向深度学习的稀疏自适应神经网络,称为深度自适应神经网络模型(DeepAdaptiveNetwork),其具有稀疏连接,准确度高,功耗低,实时性强,扩展灵活等诸多优点,可以在机器视觉、场景感知、特征提取、大数据处理等领域中得到广泛的应用;本发明的目的之二是提供一种基于前述神经网络的算法,本发明的目的之三是提供一种基于前述神经网络的实现装置。
本发明的目的之一是通过以下技术方案实现的,一种面向深度学习的稀疏自适应神经网络,包括至少一层自适应有限玻尔兹曼机;至少一层自适应有限玻尔兹曼机包括可视层和隐藏层,所述可视层和隐藏层之间的连接是稀疏的。
进一步,当自适应有限玻尔兹曼机的层数大于1层时,前一层自适应有限玻尔兹曼机的隐藏层为后一层自适应有限玻尔兹曼机的可视层。
进一步,该神经网络还包括标签层。
本发明的目的之二是通过以下技术方案实现的,面向深度学习的稀疏自适应神经网络的算法,
1)采用对能量函数的概率分布的最大似然估计的负对数形式求最小值的凸优化形式表示目标函数;
2)向目标函数中加入一范数正则化项,其中λ表示正则化系数,wij表示连接的权值;
3)所述目标函数的优化目标为x≤wi,j≤y,x,y∈R,优化结果是wij向优化目标区间的端点x,y靠近。
进一步,
1)采用短位宽的离散的整数表示连接的权重值;
2)对x,y取整,用[x],[y]表示,取[x]≤m1,m2≤[y],当wi,j≤m1,wi,j=[x],当wi,j≥m2,wi,j=[y],否则wi,j用约定值表示连接不存在。
进一步,所述目标函数为: arg min θ - Σ l log ( Σ h e - E ( v ( l ) , h ( l ) ) ) + λR S ( θ ) , 其中λ表示正则化系数,l表示网络的层数,最低为1层,v(l)表示每一层RBM的可视层,h(l)表示每一层RBM的隐藏层。
进一步,所述目标函数的优化目标为-1≤wi,j≤1。
进一步,在常规项的梯度下降步骤后,应用contrastivedivergence规则进行更新,应用Rs的梯度更新参数。
本发明的目的之三是通过以下技术方案实现的,面向深度学习的稀疏自适应神经网络的实现装置,
1)检测输入位axon[i]是否为1:若为1,即有一个突触事件到来,则根据i的值访问MAP列表中的对应位置,若为0,则检测下一位输入位。
2)读出MAP中相应的起始地址和长度值,如果长度值不为0,则用此基地址和长度值访问TABLE。否则返回事件解码器(detectaxons),检测下一位输入。
3)读出TABLE中的数据,根据weight位来控制neuron-num位神经元对应的值进行±1操作(accumulateresults),直到访问完成从base_addr到base_addr+length-1位,返回detectaxons,然后检测下一位输入。
4)当事件解码器(detectaxons)完成所有输入位的检测后,执行CMP操作,同时对所有神经元对应值与其阈值进行比较,得到神经元状态并输出。
由于采用以上技术方案,本发明具有以下有益技术效果:
本发明所述的神经网络中的连接是稀疏的,并且把一些权重接近于0的连接忽略掉。此外,采用自适应的稀疏方法,给予某些重要连接更大的权重,被忽略的连接不占用存储空间。
本发明仅需要定点运算和少量乘法(在1-bit表示时仅需进行与)运算,可节省99%的存储需求,就可以在单芯片上实现大规模神经网络。
硬件资源在芯片上整合大量神经元的瓶颈是有限数量的RAM,本发明通过省略小的权重和量化大的权重到-1和1之间,只存储了有效连接信息,平均使用不到1bit代表一个神经元之间的一个连接,显著减少了所需内存量。具体来说,假设一个k个轴突和n个神经元组成的尖峰神经元网络,如果δ是非零连接的比例,参数列表的体积可以写作δkn×(logn+1),表示一个突触所需的平均比特位数为δ(logn+1)。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为经典DBN模型示意图;
图2为本发明所述的DAN模型示意图;
图3为带有线性分类器的DAN模型示意图;
图4为DAN模型的每层神经网络的硬件实现及其控制流程。
具体实施方式
以下将结合附图,对本发明的优选实施例进行详细的描述;应当理解,优选实施例仅为了说明本发明,而不是为了限制本发明的保护范围。
实施例一
通常,传统的人工神经网络包括具有一定数目输入节点的可见层和具有一定数目输出节点的隐含层。有些设计中会在最高一层网络中使用标签层,这也是本发明的可选组成部分,但并非必须组成部分。一个隐藏层的各节点通过加权连接到可见层的输入节点。注意当隐藏层为两层及以上时,上一个隐藏层连接到另一个隐藏层。在低层网络的隐藏层一旦训练完成,对于高层的网络,该隐藏层即是高层网络的可见层。
图1为经典DBN模型示意图,在DBN网络中,描述连接的参数是稠密的实数,每一层的计算是互相连接的单元及其激励之间的矩阵乘法,大量的浮点型数据乘法运算使得难以在片上实现大规模DBN集成。因此本发明提出了一种面向数字电路实现的深度自适应神经网络(DAN),该神经网络仅需要定点运算和少量乘法(在1-bit表示时仅需进行与)运算,就可以在单芯片上实现大规模神经网络。
如图2所示,本发明所述的一种面向深度学习的稀疏自适应神经网络,包括至少一层自适应有限玻尔兹曼机;至少一层自适应有限玻尔兹曼机包括可视层和隐藏层,所述可视层和隐藏层之间的连接是稀疏的(即隐藏层的神经元与可视层的神经元不完全连接)。
当自适应有限玻尔兹曼机的层数大于1层时,前一层自适应有限玻尔兹曼机的隐藏层为后一层自适应有限玻尔兹曼机的可视层。
为了提高特征识别的精确度,该神经网络还包括标签层(线性分类器),其模型示意图如图3所示。
针对上述面向深度学习的稀疏自适应神经网络,本发明还提供一种面向深度学习的稀疏自适应神经网络的算法,该方法为:
1)采用对能量函数的概率分布的最大似然估计的负对数形式求最小值的凸优化形式表示目标函数;
2)向目标函数中加入一范数正则化项,其中λ表示正则化系数,wij表示连接的权值;
3)所述目标函数的优化目标为x≤wi,j≤y,x,y∈R,优化结果是wij向优化目标区间的端点x,y靠近。
优选的,1)采用短位宽的离散的整数表示连接的权重值;
2)对x,y取整,用[x],[y]表示,取[x]≤m1,m2≤[y],当wi,j≤m1,wi,j=[x],当wi,j≥m2,wi,j=[y],否则wi,j用约定值表示连接不存在。在本发明中所述的短宽位表示(≤8bit,可低至1bit)。
进一步,所述目标函数为: arg min θ - Σ l log ( Σ h e - E ( v ( l ) , h ( l ) ) ) + λR S ( θ ) , 其中λ表示正则化系数,l表示网络的层数,最低为1层,v(l)表示每一层RBM的可视层,h(l)表示每一层RBM的隐藏层。
进一步,所述目标函数的优化目标为-1≤wi,j≤1。
进一步,在常规项的梯度下降步骤后,应用contrastivedivergence规则进行更新,应用Rs的梯度更新参数。
在本实施例中,在上述优化与实现方法中,忽略掉权重接近于0的连接而重要连接被赋予更大的权重,且权重值为-1≤wi,j≤1;同时用32bit实数表示一个连接被优化成用1bit整数表示一个连接,如图2所示。这样的优化方式既不影响模式识别又可以满足精确性要求。
下面对本发明所述的面向深度学习的稀疏自适应神经网络算法作具体说明。
以经典的DBN神经网络模型为例,DBN网络是由RBM(有限玻尔兹曼机)堆叠而成。标准的RBM有二进制的隐藏单元和可见单元,并且由一个权重矩阵W=(wi,j)组成,它与隐藏单元向量h和可见单元向量v的联系有关,也与可见单元的偏差向量b和隐藏单元的偏差向量c有关。基于此,一个架构(v,h)的能量被定义为:
E(v,h)=-bv-ch-hWv
正如在一般的玻尔兹曼机上,隐藏向量和可见向量的概率分布以能量函数定义为:
p ( v , h ) = 1 Z e - E ( v , h ) , Z = Σ h e - E ( v , h )
其中Z是一个配分函数。一个布尔型可见向量的边缘概率等于所有可能的隐藏层架构的和:
p ( v ) = 1 Z Σ h e - E ( v , h )
假设θ={W,b,c}包含RBM机的参数。为了计算这些参数,其中一个应该把可见向量v之和表示成负的log形式并使之最小:
arg min θ - Σ l l o g ( Σ h e - E ( v ( l ) , h ) )
这一神经网络模型的算法是针对采用实数表示权重的全连接的网络进行计算的。
类似的,稀疏量化RBM通过向标准RBM中加入一个稀疏正则化项λRS(θ)来计算参数。理想情况下,一位的量化权重wi,j取值为-1~1之间的整数。然而,整数的最优化问题是非常困难的。因此,本发明把整数的约束放宽到线性不等式
arg min θ - Σ l log ( Σ h e - E ( v ( l ) , h ( l ) ) ) + λR S ( θ )
subjectto-1≤wi,j≤1
其中,λ是一个正则化常数,其中λ表示正则化系数,l表示是某一层的网络,v(l)表示每一层RBM的可视层,h(l)表示每一层RBM的隐藏层,负号-表示从最大似然到能量最低的一种数学转换。
用传统的梯度下降法计算最优参数是非常困难的,本发明采用一种反复运用吉布斯采样的对比分歧去逼近最优化参数的改进方法。用<·>p表示p分布的期望值,对于每一次迭代过程,在常规的对正则化项进行梯度下降步骤后,使用Rs的梯度更新参数,具体为:
1.常规的梯度下降步骤
Δwij=ξ(<vihi>data-<vihi>model)
Δbi=ξ(<vi>data-<vi>model)
Δci=ξ(<hi>data-<hi>model)
2.用Rs的梯度更新参数:
&Delta;w i j = &part; R S &part; w i j
每次迭代中,把权重参数从很大的绝对值减少到-1和1之间,并且不断重复这一过程直到它收敛。通过计算该优化问题得到的wij会自适应地聚集到-1,+1附近,当wij超过某个阈值时,wij变换为-1或1,然后在硬件实现的时候就可以不存储浮点数,而用一个整数表示,大大节省资源。
一旦某一层网络训练完成,参数wij,bj,ci的值就会固定,其他提供数据的隐藏单元的值就可以推测出来。这些估测值就作为训练该深度信念网络(DBN)下一更高层的数据。
实施例二
早期的稀疏DBN研究只注重提取稀疏特征而不是利用稀疏连接为硬件模型产生高效的网络架构;最近的用于深度学习的神经形态硬件模型片上神经元的数目在不断增加,但是在一个芯片上集成一百万个神经元和十亿个突触仍是不小的挑战。图4展示了一种面向深度学习的稀疏自适应神经网络优化与实现的装置,其MAP表与TABLE表是由本发明所述的DAN稀疏算法得到的。
具体工作流程如下:
1)检测输入位axon[i]是否为1:若为1,即有一个突触事件到来,则根据i的值访问MAP列表中的对应位置,若为0,则检测下一位输入位。
2)读出MAP中相应的起始地址和长度值,如果长度值不为0,则用此基地址和长度值访问TABLE。否则返回事件解码器(detectaxons),检测下一位输入。
3)读出TABLE中的数据,根据weight位来控制neuron-num位神经元对应的值进行±1操作(accumulateresults),直到访问完成从base_addr到base_addr+length-1位,返回detectaxons,然后检测下一位输入。
4)当事件解码器(detectaxons)完成所有输入位的检测后,执行CMP操作,同时对所有神经元对应值与其阈值进行比较,得到神经元状态并输出。
以上所述仅为本发明的优选实施例,并不用于限制本发明,显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (9)

1.一种面向深度学习的稀疏自适应神经网络,其特征在于:包括至少一层自适应有限玻尔兹曼机;至少一层自适应有限玻尔兹曼机包括可视层和隐藏层,所述可视层和隐藏层之间的连接是稀疏的。
2.根据权利要求1所述的面向深度学习的稀疏自适应神经网络,其特征在于:当自适应有限玻尔兹曼机的层数大于1层时,前一层自适应有限玻尔兹曼机的隐藏层为后一层自适应有限玻尔兹曼机的可视层。
3.根据权利1或2所述的面向深度学习的稀疏自适应神经网络,其特征在于:该神经网络还包括标签层。
4.一种面向深度学习的稀疏自适应神经网络算法,其特征在于:
1)采用对能量函数的概率分布的最大似然估计的负对数形式求最小值的凸优化形式表示目标函数;
2)向目标函数中加入一范数正则化项,其中λ表示正则化系数,wij表示连接的权值;
3)所述目标函数的优化目标为x≤wi,j≤y,x,y∈R,优化结果是wij向优化目标区间的端点x,y靠近。
5.根据权利要求4所述的面向深度学习的稀疏自适应神经网络算法,其特征在于:
1)采用短位宽的离散的整数表示连接的权重值;
2)对x,y取整,用[x],[y]表示,取[x]≤m1,m2≤[y],当wi,j≤m1,wi,j=[x],当wi,j≥m2,wi,j=[y],否则wi,j用约定值表示连接不存在。
6.根据权利要求5所述的面向深度学习的稀疏自适应神经网络算法,其特征在于:所述目标函数为: arg min &theta; - &Sigma; l log ( &Sigma; h e - E ( v ( l ) , h ( l ) ) ) + &lambda;R S ( &theta; ) , 其中λ表示正则化系数,l表示网络的层数,最低为1层,v(l)表示每一层RBM的可视层,h(l)表示每一层RBM的隐藏层。
7.根据权利要求6所述的面向深度学习的稀疏自适应神经网络算法,其特征在于:所述目标函数的优化目标为-1≤wi,j≤1。
8.根据权利要求7所述的面向深度学习的稀疏自适应神经网络算法,其特征在于:在常规项的梯度下降步骤后,应用contrastivedivergence规则进行更新,应用Rs的梯度更新参数。
9.面向深度学习的稀疏自适应神经网络的实现装置,其特征在于:
1)检测输入位axon[i]是否为1:若为1,即有一个突触事件到来,则根据i的值访问MAP列表中的对应位置,若为0,则检测下一位输入位;
2)读出MAP中相应的起始地址和长度值,如果长度值不为0,则用此基地址和长度值访问TABLE。否则返回事件解码器(detectaxons),检测下一位输入;
3)读出TABLE中的数据,根据weight位来控制neuron-num位神经元对应的值进行±1操作(accumulateresults),直到访问完成从base_addr到base_addr+length-1位,返回detectaxons,然后检测下一位输入;
4)当事件解码器(detectaxons)完成所有输入位的检测后,执行CMP操作,同时对所有神经元对应值与其阈值进行比较,得到神经元状态并输出。
CN201510944909.7A 2015-12-16 2015-12-16 面向深度学习的稀疏自适应神经网络、算法及实现装置 Pending CN105488563A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510944909.7A CN105488563A (zh) 2015-12-16 2015-12-16 面向深度学习的稀疏自适应神经网络、算法及实现装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510944909.7A CN105488563A (zh) 2015-12-16 2015-12-16 面向深度学习的稀疏自适应神经网络、算法及实现装置

Publications (1)

Publication Number Publication Date
CN105488563A true CN105488563A (zh) 2016-04-13

Family

ID=55675533

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510944909.7A Pending CN105488563A (zh) 2015-12-16 2015-12-16 面向深度学习的稀疏自适应神经网络、算法及实现装置

Country Status (1)

Country Link
CN (1) CN105488563A (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529458A (zh) * 2016-10-31 2017-03-22 重庆大学 一种面向高光谱图像的深度神经网络空间谱分类方法
CN106897734A (zh) * 2017-01-12 2017-06-27 南京大学 基于深度卷积神经网络的层内非均匀的k平均聚类定点量化方法
CN107632258A (zh) * 2017-09-12 2018-01-26 重庆大学 一种基于小波变换和dbn的风机变流器故障诊断方法
WO2018058427A1 (zh) * 2016-09-29 2018-04-05 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN107886167A (zh) * 2016-09-29 2018-04-06 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN108345939A (zh) * 2017-01-25 2018-07-31 微软技术许可有限责任公司 基于定点运算的神经网络
CN108345940A (zh) * 2018-02-05 2018-07-31 深圳市易成自动驾驶技术有限公司 数据处理方法、装置及计算机可读存储介质
CN108768585A (zh) * 2018-04-27 2018-11-06 南京邮电大学 基于深度学习的上行免信令noma系统多用户检测方法
CN109190753A (zh) * 2018-08-16 2019-01-11 新智数字科技有限公司 神经网络的处理方法及装置、存储介质、电子装置
CN109214502A (zh) * 2017-07-03 2019-01-15 清华大学 神经网络权重离散化方法和系统
CN109416754A (zh) * 2016-05-26 2019-03-01 多伦多大学管理委员会 用于深度神经网络的加速器
CN109978080A (zh) * 2018-04-16 2019-07-05 北京工业大学 一种基于判别矩阵变量受限玻尔兹曼机的图像识别方法
CN110073370A (zh) * 2016-12-13 2019-07-30 高通股份有限公司 用于稀疏神经网络的低功率架构
CN110413993A (zh) * 2019-06-26 2019-11-05 重庆兆光科技股份有限公司 一种基于稀疏权值神经网络的语义分类方法、系统和介质
CN110546611A (zh) * 2017-04-17 2019-12-06 微软技术许可有限责任公司 通过跳过处理操作来减少神经网络处理器中的功耗
WO2020097936A1 (zh) * 2018-11-16 2020-05-22 华为技术有限公司 一种神经网络压缩方法和装置
CN111247537A (zh) * 2017-10-06 2020-06-05 深立方有限公司 紧凑且高效的稀疏神经网络的系统和方法
CN111664823A (zh) * 2020-05-25 2020-09-15 重庆大学 基于介质热传导系数差异的均压电极垢层厚度检测方法

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109416754A (zh) * 2016-05-26 2019-03-01 多伦多大学管理委员会 用于深度神经网络的加速器
CN109416754B (zh) * 2016-05-26 2020-06-23 多伦多大学管理委员会 用于深度神经网络的加速器
CN107886167B (zh) * 2016-09-29 2019-11-08 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN107886167A (zh) * 2016-09-29 2018-04-06 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN110298443B (zh) * 2016-09-29 2021-09-17 中科寒武纪科技股份有限公司 神经网络运算装置及方法
WO2018058427A1 (zh) * 2016-09-29 2018-04-05 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN110298443A (zh) * 2016-09-29 2019-10-01 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN106529458A (zh) * 2016-10-31 2017-03-22 重庆大学 一种面向高光谱图像的深度神经网络空间谱分类方法
CN110073370A (zh) * 2016-12-13 2019-07-30 高通股份有限公司 用于稀疏神经网络的低功率架构
CN106897734A (zh) * 2017-01-12 2017-06-27 南京大学 基于深度卷积神经网络的层内非均匀的k平均聚类定点量化方法
CN108345939A (zh) * 2017-01-25 2018-07-31 微软技术许可有限责任公司 基于定点运算的神经网络
CN108345939B (zh) * 2017-01-25 2022-05-24 微软技术许可有限责任公司 基于定点运算的神经网络
CN110546611B (zh) * 2017-04-17 2023-05-02 微软技术许可有限责任公司 通过跳过处理操作来减少神经网络处理器中的功耗
CN110546611A (zh) * 2017-04-17 2019-12-06 微软技术许可有限责任公司 通过跳过处理操作来减少神经网络处理器中的功耗
CN109214502A (zh) * 2017-07-03 2019-01-15 清华大学 神经网络权重离散化方法和系统
CN109214502B (zh) * 2017-07-03 2021-02-26 清华大学 神经网络权重离散化方法和系统
CN107632258A (zh) * 2017-09-12 2018-01-26 重庆大学 一种基于小波变换和dbn的风机变流器故障诊断方法
US11580352B2 (en) 2017-10-06 2023-02-14 Nano Dimension Technologies, Ltd. System and method for compact and efficient sparse neural networks
CN111247537A (zh) * 2017-10-06 2020-06-05 深立方有限公司 紧凑且高效的稀疏神经网络的系统和方法
CN111247537B (zh) * 2017-10-06 2021-11-09 深立方有限公司 有效存储稀疏神经网络和稀疏卷积神经网络的方法及系统
CN108345940A (zh) * 2018-02-05 2018-07-31 深圳市易成自动驾驶技术有限公司 数据处理方法、装置及计算机可读存储介质
CN109978080A (zh) * 2018-04-16 2019-07-05 北京工业大学 一种基于判别矩阵变量受限玻尔兹曼机的图像识别方法
CN109978080B (zh) * 2018-04-16 2021-06-25 北京工业大学 一种基于判别矩阵变量受限玻尔兹曼机的图像识别方法
CN108768585A (zh) * 2018-04-27 2018-11-06 南京邮电大学 基于深度学习的上行免信令noma系统多用户检测方法
CN108768585B (zh) * 2018-04-27 2021-03-16 南京邮电大学 基于深度学习的上行免信令非正交多址接入noma系统多用户检测方法
CN109190753A (zh) * 2018-08-16 2019-01-11 新智数字科技有限公司 神经网络的处理方法及装置、存储介质、电子装置
CN113302657A (zh) * 2018-11-16 2021-08-24 华为技术有限公司 一种神经网络压缩方法和装置
WO2020097936A1 (zh) * 2018-11-16 2020-05-22 华为技术有限公司 一种神经网络压缩方法和装置
CN113302657B (zh) * 2018-11-16 2024-04-26 华为技术有限公司 一种神经网络压缩方法和装置
CN110413993A (zh) * 2019-06-26 2019-11-05 重庆兆光科技股份有限公司 一种基于稀疏权值神经网络的语义分类方法、系统和介质
CN111664823A (zh) * 2020-05-25 2020-09-15 重庆大学 基于介质热传导系数差异的均压电极垢层厚度检测方法

Similar Documents

Publication Publication Date Title
CN105488563A (zh) 面向深度学习的稀疏自适应神经网络、算法及实现装置
Goel et al. A survey of methods for low-power deep learning and computer vision
KR102399548B1 (ko) 뉴럴 네트워크를 위한 방법 및 그 방법을 수행하는 장치
Pai System reliability forecasting by support vector machines with genetic algorithms
Ding et al. Research on using genetic algorithms to optimize Elman neural networks
Zeng et al. A GA-based feature selection and parameter optimization for support tucker machine
CN106022954B (zh) 基于灰色关联度的多重bp神经网络负荷预测方法
CN109242223B (zh) 城市公共建筑火灾风险的量子支持向量机评估与预测方法
Wu et al. Network intrusion detection based on a general regression neural network optimized by an improved artificial immune algorithm
Wang et al. Correlation aware multi-step ahead wind speed forecasting with heteroscedastic multi-kernel learning
CN108805193B (zh) 一种基于混合策略的电力缺失数据填充方法
CN114207628A (zh) 通过调整存储器内计算阵列的列阈值来执行xnor等效运算
Lun et al. The modified sufficient conditions for echo state property and parameter optimization of leaky integrator echo state network
Chakraborty et al. On the use of genetic algorithm with elitism in robust and nonparametric multivariate analysis
Ying et al. Processor free time forecasting based on convolutional neural network
CN114880538A (zh) 基于自监督的属性图社团检测方法
Wang et al. A vortex identification method based on extreme learning machine
CN106295677A (zh) 一种联合拉斯正则项和特征自学习的水流图像分簇方法
Ju et al. Hydrologic simulations with artificial neural networks
CN115761654B (zh) 一种车辆重识别方法
Xia et al. Efficient synthesis of compact deep neural networks
Goel et al. CompactNet: High accuracy deep neural network optimized for on-chip implementation
Zhang et al. Deep convolutional neural network for fog detection
CN114444654A (zh) 一种面向nas的免训练神经网络性能评估方法、装置和设备
CN113762591A (zh) 一种基于gru和多核svm对抗学习的短期电量预测方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20160413

RJ01 Rejection of invention patent application after publication