CN111460906B - 一种基于集成学习的脉冲神经网络模式识别方法及系统 - Google Patents

一种基于集成学习的脉冲神经网络模式识别方法及系统 Download PDF

Info

Publication number
CN111460906B
CN111460906B CN202010148406.XA CN202010148406A CN111460906B CN 111460906 B CN111460906 B CN 111460906B CN 202010148406 A CN202010148406 A CN 202010148406A CN 111460906 B CN111460906 B CN 111460906B
Authority
CN
China
Prior art keywords
pulse
binary
data
computing
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010148406.XA
Other languages
English (en)
Other versions
CN111460906A (zh
Inventor
周喜川
林英撑
梁松红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202010148406.XA priority Critical patent/CN111460906B/zh
Publication of CN111460906A publication Critical patent/CN111460906A/zh
Application granted granted Critical
Publication of CN111460906B publication Critical patent/CN111460906B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于集成学习的脉冲神经网络模式识别方法及系统,属于类脑计算领域。该方法包括以下步骤:S1:建立二元SNN算法模型;S2:基于Bagging的ESNN算法模型;S3:设计基于ESNN的系统。采用基于数据流的全流水近存计算架构,输入数据经流所有的脉冲神经网络流水线,所有内存访问发生在片内且参数读取与数据严格同步。本发明通过Ensemble Learning可以有效的解决二元SNN模型性能差的固有缺陷,满足了绝大部分类脑智能计算应用的高模型性能需求。

Description

一种基于集成学习的脉冲神经网络模式识别方法及系统
技术领域
本发明属于类脑计算领域,涉及一种基于集成学习的脉冲神经网络模式识别方法及系统。
背景技术
脉冲神经网络(SNN)被誉为第三代人工神经网络,是人工智能计算领域近年来最热门的研究方向之一。以深度神经网络(DNN)为代表的第二代神经网络究其本质始终还是建立在复杂的数学模型基础上的,虽然其在结构上与人脑神经元结构类似,但与人脑神经元基于信号的时间(脉冲)来处理信息的计算机制有着本质的区别。为了实现真正意义上的类脑智能计算,SNN这一新兴神经网络模型得到了广泛的研究。IBM公司推出的True North架构及芯片,采用了事件触发机制来触发模块工作,实现了极低的功耗,是数字集成电路实现SNN的最具代表性之作。
脉冲神经网络应用于图像识别或模式识别领域的技术目前有很多,但是基于SNN的高能效硬件电路与系统却很少。专利CN110210613A搭建了基于强化学习的SNN硬件电路以实现XOR分类功能,专利CN109816026A将卷积神经网络(CNN)与SNN进行结构上的融合,实现了CNN信息特征提取能力强和SNN稀疏、低功耗的优势的结合,专利CN108470190A在Xilinx Virtex-7系列FPGA平台上实现定制脉冲神经网络,通过仿生视觉传感器的动态图像信号或人工转化静态图像信号来产生脉冲序列,从而搭建了基于SNN的图像识别电路系统,专利CN108985252A采用了DOG层和简化脉冲耦合神经网络的方法对图像进行预处理,实现了更贴近生物特性、简单有效的SNN模型。
现有的技术和方法大都聚焦在传统DNN到SNN的转换方法、以及寻找有效的SNN训练机制等技术问题上,但在有效解决SNN模型性能差、以及从硬件架构层面挖掘SNN模型的高能效潜力等方面还缺乏相关的技术研究。对于DNN而言,提高其模型性能的方法通常是提高模型的量化精度,而对于SNN来说,由于其采用0、1的二元脉冲信号进行信息的处理这一特殊机制,因此通过SNN模型的并行集成学习与优化,以及SNN芯片的级联形成超高计算密度的类脑计算平台来提高SNN的网络性能是未来重点的发展方向。如果考虑到目前呈指数倍增长的有着超低功耗需求的IOT设备和嵌入式边缘计算平台的应用场景,那么SNN的集成学习无疑将会成为一个重要突破点。
发明内容
有鉴于此,本发明的目的在于提供一种基于集成学习的脉冲神经网络模式识别方法。
为达到上述目的,本发明提供如下技术方案:
一种基于集成学习的脉冲神经网络模式识别方法,该方法包括以下步骤:
S1:建立二元SNN算法模型;
S2:基于Bagging的ESNN算法模型;
S3:设计基于ESNN的系统。
可选的,所述步骤S1为:
将DNN模型的权重和激活值进行二值脉冲化,采用的脉冲化函数为:
Figure BDA0002401570190000021
其中xb是二值的网络权重或激活;
对权重和激活进行二元脉冲处理,降低内存占用;
利用α尺度因子使二值卷积逼近实值卷积;
假设I是某层的实值输入,W是某层的一个实值卷积核权重,B∈{-1,+1}是W的二值量化权重,
Figure BDA0002401570190000022
是该卷积核对应的尺度因子;用W≈αB使B去逼近W,利用L2范数,转化为求以下最优化目标函数:
J(B,α)=||W-αB||2
Figure BDA0002401570190000023
经过最优化求解过程求得最优解B*=Sign(W),
Figure BDA0002401570190000024
即最优二值权重是实值权重的符号位,最优缩放因子是实值权重W的每个元素的绝对值之和的均值;经过这个最优化过程完成对权重的脉冲化,脉冲函数为Sign符号函数;对输入的脉冲化也是相同的过程,得到相同的最优解和输入脉冲函数;经过二元脉冲化的神经网络,若干个前神经元的输入和权重都是二元的脉冲信号,前神经元的计算结果经过聚合后形成后神经元的膜电位,通过阈值比较后输出脉冲信号,作为下一级的输入脉冲。
可选的,所述步骤S2为:
利用Bagging算法同时训练多个相互独立的二元SNN模型,然后推理时聚合所有的模型输出以表决出最后结果,实现基于Bagging集成学习技术的二元SNN模型算法框架;
利用多模型集成的方法使多个二值卷积核逼近于一个实值卷积核:
Figure BDA0002401570190000025
Bagging算法的流程为以下步骤:
步骤1:假设包含m个训练样本的原始样本集为D={(x1,y1),(x2,y2)...(xm,ym),},对样本集进行m次自举采样bootstrap,即有放回的随机采样,得到一个包含m个样本的采样集;重复T次上诉操作得到T个采样集;
步骤2:对于步骤1得到的T个采样集,用每个采样集训练一个模型,共训练得到T个独立的同质模型;
步骤3:将T个模型对同一个测试样本的输出通过表决器来判定最后结果,对于分类任务通常选取投票数最多的类别作为最后结果,而回归任务则采用简单平均法。
可选的,所述步骤S3中,基于ESNN的电路包括输入输出缓存与控制部分、片上存储器、脉冲神经网络流水线和Bagging计算单元;
输入输出缓存与控制部分用于对来自外部IO外设或总线的输入数据进行缓存和复用,解决跨时钟域的数据处理问题;
脉冲神经网络流水线包括多个级联的计算阵列,每个计算阵列用于计算相应位置的网络宏层,计算阵列包括多个并行的计算单元,分别实现不同卷积核的运算;
片上存储器用于存储SNN模型的参数和中间计算结果,采用数据流式的计算架构,通过数据复用和计算单元的复用来实现宽度较深的网络计算;
Bagging计算单元用于实现对并行流水线的输出结果进行聚合然后表决出最后结果;
所述系统采用基于数据流的全流水近存计算架构,输入数据经流所有的脉冲神经网络流水线,所有内存访问发生在片内且参数读取与数据严格同步;
每个计算阵列用于SNN模型中一个宏层的计算,包括二元脉冲卷积层、批量归一化层、非线性激活层以及池化层;
计算阵列中还包括并行的计算单元PE;
计算单元由脉冲信号缓存模块、脉冲卷积模块、存储器以及控制器组成;
脉冲信号缓存模块由K×Ni×Ri的寄存器阵列组成,用来缓存输入的脉冲信号;若卷积核大小为K×K,每个行数据块长度为Ri,当K个行数据块缓存完成后,便能每个时钟从中提取出一次脉冲卷积运算所需的滑动窗口的数据;Ni是计算单元一次计算的数据通道数;脉冲卷积单元实现二元脉冲信号的卷积运算,移位器实现多个有权二元脉冲神经元的组合运算,累加器进行多次复用计算后的结果累加;阈值计算与池化单元负责进行批量归一化Batch normalization、非线性阈值激活Activation和池化Pooling运算;
采用归一化和激活函数结合的方式,将归一化层的参数和神经元的偏置合并为神经元的阈值电压,利用一个加法器实现神经元输出电压的阈值比较并根据输出电压的符号产生脉冲信号,最后根据模型的需要进行池化运算。
一种基于集成学习的脉冲神经网络模式识别系统,包括输入输出缓存与控制部分、片上存储器、脉冲神经网络流水线和Bagging计算单元;
所述识别系统采用基于数据流的全流水近存计算架构,输入数据经流所有的脉冲神经网络流水线,所有内存访问发生在片内且参数读取与数据严格同步。
可选的,所述输入输出缓存与控制部分用于对来自外部IO外设或总线的输入数据进行缓存和复用,解决跨时钟域的数据处理问题;
脉冲神经网络流水线包括多个级联的计算阵列,每个计算阵列用于计算相应位置的网络宏层,计算阵列包括多个并行的计算单元,分别实现不同卷积核的运算;
片上存储器用于存储SNN模型的参数和中间计算结果,采用数据流式的计算架构,通过数据复用和计算单元的复用来实现宽度较深的网络计算;
Bagging计算单元用于实现对并行流水线的输出结果进行聚合然后表决出最后结果。
可选的,所述计算阵列用于SNN模型中一个宏层的计算,包括二元脉冲卷积层、批量归一化层、非线性激活层以及池化层。
可选的,所述计算阵列中还包括并行的计算单元PE;
计算单元PE包括脉冲信号缓存模块、脉冲卷积模块、存储器以及控制器。
可选的,所述脉冲信号缓存模块由K×Ni×Ri的寄存器阵列组成,用来缓存输入的脉冲信号;若卷积核大小为K×K,每个行数据块长度为Ri,当K个行数据块缓存完成后,每个时钟从中提取出一次脉冲卷积运算所需的滑动窗口的数据;Ni是计算单元一次计算的数据通道数;
脉冲卷积单元实现二元脉冲信号的卷积运算,移位器实现多个有权二元脉冲神经元的组合运算,累加器进行多次复用计算后的结果累加;
阈值计算与池化单元负责进行批量归一化Batch normalization、非线性阈值激活Activation和池化Pooling运算;
采用归一化和激活函数结合的方式,将归一化层的参数和神经元的偏置合并为神经元的阈值电压,利用一个加法器实现神经元输出电压的阈值比较并根据输出电压的符号产生脉冲信号,最后根据模型的需要进行池化运算。
本发明的有益效果在于:
1、二元SNN由于脉冲神经元的传递函数不可微的性质阻止了模型的反向传播,因此SNN始终未能达到与其他采用基础数学模型机制的神经网络模型相似的性能。本发明通过Ensemble Learning可以有效的解决二元SNN模型性能差的固有缺陷,满足了绝大部分类脑智能计算应用的高模型性能需求。
2、本发明提出的电路架构采用了基于数据流的近存计算架构,最大程度减少了内存访问次数,加之二元脉冲的计算机制将传统卷积运算转换为了位运算,使得架构实现了很高的能效。
3、在保证高能效表现的同时能够通过适当增加并行的二元SNN的架构数量以提高模型性能,架构的灵活性提供了功耗与性能之间极佳的平衡,增加了电路架构的适用性。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为SNN模型结构;
图2为基于Bagging技术的SNN模型框架;
图3为基于Bagging的脉冲神经网络电路架构图;
图4为二元脉冲神经网络计算单元;
图5为每层神经元数目为128的3层感知机MLP模型;
图6为本发明应用场景图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
本发明以基于Bagging技术的集成脉冲神经网络(Ensemble Spiking NeuralNetwork,ESNN)模型为基础理论设计方案框架,进而引入了高能效的近存数据流式计算架构,通过多个并行的硬件架构来匹配多个二元SNN模型,最后经过Bagging单元电路进行聚合然后输出最后的结果。
1、二元SNN算法模型原理
Matthieu Courbariaux在2016的论文Binarized Neural Networks:TrainingNeural Networkswith Weights andActivations Constrained to +1 or-1,首次将DNN模型的权重和激活值进行二值脉冲化。其采用的脉冲化函数为:
Figure BDA0002401570190000061
其中xb是二值的网络权重或激活。同时对权重和激活进行二元脉冲处理后可以极大地降低内存占用,加速模型的推理,但是二元脉冲模型极低的参数精度使得模型遭受到了较为严重的准确度损失。因此Mohammad Rastegari在2016年的论文XNOR-Net:ImageNetClassification Using Binary Convolutional Neural Networks中提出了一种利用α尺度因子使二值卷积去逼近实值卷积的方法。假设I是某层的实值输入,W是某层的一个实值卷积核权重,B∈{-1,+1}是W的二值量化权重,
Figure BDA0002401570190000062
是该卷积核对应的尺度因子。那么可以用W≈αB使B去逼近W,利用L2范数,转化为求以下最优化目标函数:
J(B,α)=||W-αB||2
Figure BDA0002401570190000063
经过最优化求解过程求得最优解B*=Sign(W),
Figure BDA0002401570190000064
即最优二值权重是实值权重的符号位,最优缩放因子是实值权重W的每个元素的绝对值之和的均值。经过这个最优化过程完成了对权重的脉冲化,脉冲函数为Sign符号函数。对输入的脉冲化也是相同的过程,得到相同的最优解和输入脉冲函数,详细推导参见原论文。经过二元脉冲化的神经网络如图1所示。若干个前神经元的输入和权重都是二元的脉冲信号,前神经元的计算结果经过聚合后形成后神经元的膜电位,通过阈值比较后输出脉冲信号,作为下一级的输入脉冲。
2、基于Bagging的ESNN算法模型
2.1算法原理
Bagging采用有放回重复采样的方法构成每次训练的采样集,每个采样集用于训练一个独立的模型。多模型集成的方法可以降低模型的方差,增强模型的鲁棒性,从而改善模型的过拟合状况。利用Bagging算法同时训练多个相互独立的二元SNN模型,然后推理时聚合所有的模型输出以表决出最后结果,这样便实现了基于Bagging集成学习技术的二元SNN模型算法框架,如图2所示。
多模型集成的方法使多个二值卷积核更逼近于一个实值卷积核。如公式(3)所示。
Figure BDA0002401570190000071
2.2算法步骤
Bagging(bootstrap aggregating)是一种通过结合若干个同质弱模型以降低泛化误差的技术。核心思想是训练几个相互独立的模型,然后让所有模型共同表决测试样本的输出。Bagging算法的流程主要为以下4个步骤:
步骤1:假设包含m个训练样本的原始样本集为D={(x1,y1),(x2,y2),...(xm,ym),},对样本集进行m次自举采样(bootstrap),即有放回的随机采样,得到一个包含m个样本的采样集。重复T次上诉操作得到T个采样集。
步骤2:对于步骤1得到的T个采样集,用每个采样集训练一个模型,共训练得到T个独立的同质模型。
步骤3:将T个模型对同一个测试样本的输出通过表决器来判定最后结果,对于分类任务通常选取投票数最多的类别作为最后结果,而回归任务则采用简单平均法。
3、基于ESNN的电路架构与系统设计
以基于Bagging的ESNN为基础网络模型,并根据Bagging集成学习技术的特点,设计了一种并行的SNN电路架构以及Bagging计算单元来实现对基于Bagging的ESNN模型的推理加速。
如图3所示,整个硬件电路架构由输入输出缓存与控制、片上存储器、脉冲神经网络流水线、Bagging计算单元四个部分组成。输入输出缓存与控制部分负责对来自外部IO外设或总线的输入数据进行缓存和复用,解决跨时钟域的数据处理问题。架构的核心电路是多个并行的二元脉冲神经网络计算流水线,每个流水线负责一个二元SNN模型的计算。每个计算流水线内部由多个级联的计算阵列构成,每个计算阵列负责计算相应位置的网络宏层,计算阵列内部包含多个并行的计算单元,分别实现不同卷积核的运算。片上存储器用来存储所有SNN模型的参数以及中间计算结果,由于采用了数据流式的计算架构,使得只需要存储每个子模块的少部分中间输出结果即可通过数据复用和计算单元的复用来实现宽度较深的网络计算。Bagging计算单元用以实现对并行流水线的输出结果进行聚合然后表决出最后结果。整个硬件电路采用基于数据流的全流水近存计算架构,输入数据经流所有的计算流水线都不需要多余的控制指令,所有的内存访问都是发生在片内且参数读取与数据严格同步,具有很强的可扩展性和能效表现。
每个计算阵列负责SNN模型中一个宏层的计算,通常包括二元脉冲卷积层、批量归一化层、非线性激活层以及池化层。计算阵列中并行的计算单元(Processing Element,PE)是核心计算部件,其内部架构如图4所示。计算单元由脉冲信号缓存模块、脉冲卷积模块、存储器以及控制器组成。脉冲信号缓存模块由K×Ni×Ri的寄存器阵列组成,用来缓存输入的脉冲信号。若卷积核大小为K×K,每个行数据块长度为Ri,当K个行数据块缓存完成后,便能每个时钟从中提取出一次脉冲卷积运算所需的滑动窗口的数据。而Ni是计算单元一次可以计算的数据通道数。脉冲卷积单元可以实现二元脉冲信号的卷积运算,移位器可以实现多个有权二元脉冲神经元的组合运算,由于计算单元的高复用性,因此需用累加器进行多次复用计算后的结果累加。阈值计算与池化单元负责进行批量归一化(Batchnormalization)、非线性阈值激活(Activation)和池化(Pooling)运算。采用归一化和激活函数结合的方式,将归一化层的参数和神经元的偏置合并为神经元的阈值电压,利用一个加法器实现神经元输出电压的阈值比较并根据输出电压的符号产生脉冲信号,最后根据模型的需要进行池化运算。
(1)本发明建立了并行多网络的二元SNN算法模型框架,把Ensemble Learning引入进脉冲神经网络中,利用多模型优势降低了模型方差,从而改善了模型过拟合状况,提升了整体性能。图5所示是一个每层神经元数目为128的3层感知机(Multilayer perceptron,MLP)模型,在集成了1-8个网络时的性能提升表现。
(2)针对算法模型提出的电路架构具有全流水、内存访问少的工作特点,而且由于二元脉冲信号的数据计算机制,极大地提高了电路架构的能效。与CPU、GPU等通用平台,以及主流的二值神经网络硬件架构相比,本发明提出的架构在能效上分别提升了605倍、25倍、7%、91%,如表1所示。
表1本架构能效表
Figure BDA0002401570190000091
(3)多模型机制的硬件电路架构为模型性能和电路能效提供了一种很好的平衡,既可以在保证高能效的同时通过适当的增加并行流水线数量来有效地提升模型性能,也可以压缩流水线而取得更为出色的电路能效表现,在需要同时兼顾性能和功耗的AI边缘计算大行其道的今天,具有非常好的应用价值和推广前景。
如图6所示,本发明可应用于智能机器人、小型无人机跟踪识别平台等对性能和功耗都有较高要求的AI边缘计算领域。无人机上的机载处理器集成了通用处理器和神经网络计算单元,通用处理器完成可见光、红外传感器等视觉传感器的数据融合以及预处理,然后利用基于集成学习的脉冲神经网络计算单元进行信号处理及模式识别,处理器根据处理识别结果向无人机的飞控系统发出相应的高层动作指令,由飞行控制器直接控制伺服电机,从而实现对机器人的智能视觉导航、避障、及控制。无人机系统近年来在城市消防、交通监测等领域得到了愈加广泛的应用,但由于城市环境的复杂,对无人机平台的AI实时处理性能、功耗等各方面都有着相当严苛的要求,而本发明提出的高效能集成学习脉冲神经网络电路架构为无人机在更多智能计算领域的应用提供了更好的选择。
应当指出,以上所述具体实施方式可以使本领域的技术人员更全面地理解本发明创造,但不以任何方式限制本发明创造。因此,尽管本说明书参照附图和实施例对本发明创造已经进行了详细的说明,但是本领域人员应当理解,仍然可以对本发明创造进行修改或等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明专利的权利要求范围当中。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (2)

1.一种基于集成学习的脉冲神经网络模式识别方法,其特征在于:该方法包括以下步骤:
S1:建立二元SNN算法模型;
S2:基于Bagging的ESNN算法模型;
S3:设计基于ESNN的系统;
所述步骤S1为:
将DNN模型的权重和激活值进行二值脉冲化,采用的脉冲化函数为:
Figure FDA0004181389870000011
其中xb是二值的网络权重或激活;
对权重和激活进行二元脉冲处理,降低内存占用;
利用α尺度因子使二值卷积逼近实值卷积;
假设I是某层的实值输入,W是某层的一个实值卷积核权重,B∈{-1,+1}是W的二值量化权重,
Figure FDA0004181389870000012
是该卷积核对应的尺度因子;用≈αB使B去逼近W,利用L2范数,转化为求以下最优化目标函数:
J(B,α)=||W-αB||2
Figure FDA0004181389870000013
经过最优化求解过程求得最优解B*=Sign(W),
Figure FDA0004181389870000014
即最优二值权重是实值权重的符号位,最优缩放因子是实值权重W的每个元素的绝对值之和的均值;经过这个最优化过程完成对权重的脉冲化,脉冲函数为Sign符号函数;对输入的脉冲化也是相同的过程,得到相同的最优解和输入脉冲函数;经过二元脉冲化的神经网络,若干个前神经元的输入和权重都是二元的脉冲信号,前神经元的计算结果经过聚合后形成后神经元的膜电位,通过阈值比较后输出脉冲信号,作为下一级的输入脉冲;
所述步骤S2为:
利用Bagging算法同时训练多个相互独立的二元SNN模型,然后推理时聚合所有的模型输出以表决出最后结果,实现基于Bagging集成学习技术的二元SNN模型算法框架;
利用多模型集成的方法使多个二值卷积核逼近于一个实值卷积核:
Figure FDA0004181389870000015
Bagging算法的流程为以下步骤:
Figure FDA0004181389870000021
集进行m次自举采样bootstrap,即有放回的随机采样,得到一个包含m个样本的采样集;重复T次上诉操作得到T个采样集;
步骤2:对于步骤1得到的T个采样集,用每个采样集训练一个模型,共训练得到T个独立的同质模型;
步骤3:将T个模型对同一个测试样本的输出通过表决器来判定最后结果,对于分类任务通常选取投票数最多的类别作为最后结果,而回归任务则采用简单平均法;
所述步骤S3中,基于ESNN的电路包括输入输出缓存与控制部分、片上存储器、脉冲神经网络流水线和Bagging计算单元;
输入输出缓存与控制部分用于对来自外部IO外设或总线的输入数据进行缓存和复用,解决跨时钟域的数据处理问题;
脉冲神经网络流水线包括多个级联的计算阵列,每个计算阵列用于计算相应位置的网络宏层,计算阵列包括多个并行的计算单元,分别实现不同卷积核的运算;
片上存储器用于存储SNN模型的参数和中间计算结果,采用数据流式的计算架构,通过数据复用和计算单元的复用来实现宽度较深的网络计算;
Bagging计算单元用于实现对并行流水线的输出结果进行聚合然后表决出最后结果;
所述系统采用基于数据流的全流水近存计算架构,输入数据经流所有的脉冲神经网络流水线,所有内存访问发生在片内且参数读取与数据严格同步;
每个计算阵列用于SNN模型中一个宏层的计算,包括二元脉冲卷积层、批量归一化层、非线性激活层以及池化层;
计算阵列中还包括并行的计算单元PE;
计算单元由脉冲信号缓存模块、脉冲卷积模块、存储器以及控制器组成;
脉冲信号缓存模块由K×Ni×Ri的寄存器阵列组成,用来缓存输入的脉冲信号;若卷积核大小为K×K,每个行数据块长度为Ri,当K个行数据块缓存完成后,便能每个时钟从中提取出一次脉冲卷积运算所需的滑动窗口的数据;Ni是计算单元一次计算的数据通道数;脉冲卷积单元实现二元脉冲信号的卷积运算,移位器实现多个有权二元脉冲神经元的组合运算,累加器进行多次复用计算后的结果累加;阈值计算与池化单元负责进行批量归一化Batch normalization、非线性阈值激活Activation和池化Pooling运算;
采用归一化和激活函数结合的方式,将归一化层的参数和神经元的偏置合并为神经元的阈值电压,利用一个加法器实现神经元输出电压的阈值比较并根据输出电压的符号产生脉冲信号,最后根据模型的需要进行池化运算。
2.基于权利要求1所述识别方法的基于集成学习的脉冲神经网络模式识别系统,其特征在于:包括输入输出缓存与控制部分、片上存储器、脉冲神经网络流水线和Bagging计算单元;
所述识别系统采用基于数据流的全流水近存计算架构,输入数据经流所有的脉冲神经网络流水线,所有内存访问发生在片内且参数读取与数据严格同步;
所述输入输出缓存与控制部分用于对来自外部IO外设或总线的输入数据进行缓存和复用,解决跨时钟域的数据处理问题;
脉冲神经网络流水线包括多个级联的计算阵列,每个计算阵列用于计算相应位置的网络宏层,计算阵列包括多个并行的计算单元,分别实现不同卷积核的运算;
片上存储器用于存储SNN模型的参数和中间计算结果,采用数据流式的计算架构,通过数据复用和计算单元的复用来实现宽度较深的网络计算;
Bagging计算单元用于实现对并行流水线的输出结果进行聚合然后表决出最后结果;
所述计算阵列用于SNN模型中一个宏层的计算,包括二元脉冲卷积层、批量归一化层、非线性激活层以及池化层;
所述计算阵列中还包括并行的计算单元PE;
计算单元PE包括脉冲信号缓存模块、脉冲卷积模块、存储器以及控制器;
所述脉冲信号缓存模块由K×Ni×Ri的寄存器阵列组成,用来缓存输入的脉冲信号;若卷积核大小为K×K,每个行数据块长度为Ri,当K个行数据块缓存完成后,每个时钟从中提取出一次脉冲卷积运算所需的滑动窗口的数据;Ni是计算单元一次计算的数据通道数;
脉冲卷积单元实现二元脉冲信号的卷积运算,移位器实现多个有权二元脉冲神经元的组合运算,累加器进行多次复用计算后的结果累加;
阈值计算与池化单元负责进行批量归一化Batch normalization、非线性阈值激活Activation和池化Pooling运算;
采用归一化和激活函数结合的方式,将归一化层的参数和神经元的偏置合并为神经元的阈值电压,利用一个加法器实现神经元输出电压的阈值比较并根据输出电压的符号产生脉冲信号,最后根据模型的需要进行池化运算。
CN202010148406.XA 2020-03-05 2020-03-05 一种基于集成学习的脉冲神经网络模式识别方法及系统 Active CN111460906B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010148406.XA CN111460906B (zh) 2020-03-05 2020-03-05 一种基于集成学习的脉冲神经网络模式识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010148406.XA CN111460906B (zh) 2020-03-05 2020-03-05 一种基于集成学习的脉冲神经网络模式识别方法及系统

Publications (2)

Publication Number Publication Date
CN111460906A CN111460906A (zh) 2020-07-28
CN111460906B true CN111460906B (zh) 2023-05-26

Family

ID=71680949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010148406.XA Active CN111460906B (zh) 2020-03-05 2020-03-05 一种基于集成学习的脉冲神经网络模式识别方法及系统

Country Status (1)

Country Link
CN (1) CN111460906B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699956B (zh) * 2021-01-08 2023-09-22 西安交通大学 一种基于改进脉冲神经网络的神经形态视觉目标分类方法
CN112863520B (zh) * 2021-01-18 2023-10-24 东南大学 一种二值权重卷积神经网络模块及其用于声纹识别的方法
CN113159277B (zh) * 2021-03-09 2022-12-23 北京大学 目标检测方法、装置及设备
CN114004730A (zh) * 2021-11-03 2022-02-01 奥特贝睿(天津)科技有限公司 一种基于图形处理器的深度神经网络多模型并行推理方法
CN117709418A (zh) * 2022-10-09 2024-03-15 航天科工集团智能科技研究院有限公司 基于实值放电的脉冲神经网络训练方法、识别系统及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108352072A (zh) * 2016-08-08 2018-07-31 松下知识产权经营株式会社 物体跟踪方法、物体跟踪装置以及程序
CN108416391A (zh) * 2018-03-16 2018-08-17 重庆大学 基于视觉皮层处理机制及脉冲监督学习的图像分类方法
CN110555523A (zh) * 2019-07-23 2019-12-10 中建三局智能技术有限公司 一种基于脉冲神经网络的短程跟踪方法及系统
CN110659730A (zh) * 2019-10-10 2020-01-07 电子科技大学中山学院 基于脉冲神经网络的端到端功能性脉冲模型的实现方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100904962B1 (ko) * 2007-05-31 2009-06-26 삼성전자주식회사 스트레스 검출 회로, 이를 포함하는 반도체 칩 및 스트레스검출 방법
US11544539B2 (en) * 2016-09-29 2023-01-03 Tsinghua University Hardware neural network conversion method, computing device, compiling method and neural network software and hardware collaboration system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108352072A (zh) * 2016-08-08 2018-07-31 松下知识产权经营株式会社 物体跟踪方法、物体跟踪装置以及程序
CN108416391A (zh) * 2018-03-16 2018-08-17 重庆大学 基于视觉皮层处理机制及脉冲监督学习的图像分类方法
CN110555523A (zh) * 2019-07-23 2019-12-10 中建三局智能技术有限公司 一种基于脉冲神经网络的短程跟踪方法及系统
CN110659730A (zh) * 2019-10-10 2020-01-07 电子科技大学中山学院 基于脉冲神经网络的端到端功能性脉冲模型的实现方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHI,MM.a semilabeled-sample-driven bagging technique for lll-posed classification problems.《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》.2005,第2卷(第1期),全文. *
不完整数据集的多视角集成分类研究.《中国优秀博硕士学位论文全文数据库(硕士)息息科技辑》.2016,(第8期),全文. *
李宏伟 ; 吴庆祥 ; .脉冲神经网络中神经元突触的硬件实现方案.计算机系统应用.2014,(第02期),全文. *
谢建群.大规模类脑模拟仿真计算体系结构的研究.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2018,(第12期),全文. *

Also Published As

Publication number Publication date
CN111460906A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN111460906B (zh) 一种基于集成学习的脉冲神经网络模式识别方法及系统
Jiang et al. Real-time object detection method based on improved YOLOv4-tiny
Sze Designing hardware for machine learning: The important role played by circuit designers
Khaing et al. Development of control system for fruit classification based on convolutional neural network
CN111291809B (zh) 一种处理装置、方法及存储介质
US11562212B2 (en) Performing XNOR equivalent operations by adjusting column thresholds of a compute-in-memory array
CN113051216B (zh) 一种基于FPGA加速的MobileNet-SSD目标检测装置及方法
Khalil et al. An efficient approach for neural network architecture
Khalil et al. Designing novel AAD pooling in hardware for a convolutional neural network accelerator
US20190354865A1 (en) Variance propagation for quantization
Wang et al. TRC‐YOLO: A real‐time detection method for lightweight targets based on mobile devices
Hu et al. Quantized STDP-based online-learning spiking neural network
US20220156528A1 (en) Distance-based boundary aware semantic segmentation
Zulqarnain et al. Predicting financial prices of stock market using recurrent convolutional neural networks
CN111767860A (zh) 一种通过卷积神经网络实现图像识别的方法及终端
Kumeda et al. Vehicle accident and traffic classification using deep convolutional neural networks
Morán et al. Reservoir computing hardware with cellular automata
Chen et al. Convolutional neural network acceleration with hardware/software co-design
Wu et al. A lightweight network for vehicle detection based on embedded system
Chen et al. A hierarchical K-means-assisted scenario-aware reconfigurable convolutional neural network
Hu et al. Lightweight asymmetric dilation network for real-time semantic segmentation
Hebbar et al. Theory, concepts, and applications of artificial neural networks
Guo et al. Design of a prediction system based on the dynamical feed-forward neural network
Malhotra et al. Challenges to implement Machine Learning in Embedded Systems
CN116992937A (zh) 神经网络模型的修复方法和相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant