CN113469357A - 一种人工神经网络到脉冲神经网络的映射方法 - Google Patents

一种人工神经网络到脉冲神经网络的映射方法 Download PDF

Info

Publication number
CN113469357A
CN113469357A CN202110651765.1A CN202110651765A CN113469357A CN 113469357 A CN113469357 A CN 113469357A CN 202110651765 A CN202110651765 A CN 202110651765A CN 113469357 A CN113469357 A CN 113469357A
Authority
CN
China
Prior art keywords
neural network
artificial neural
pulsed
parameter
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110651765.1A
Other languages
English (en)
Inventor
刘洋
王雅迪
钱堃
王俊杰
于奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110651765.1A priority Critical patent/CN113469357A/zh
Publication of CN113469357A publication Critical patent/CN113469357A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明涉及神经网络技术领域,具体为一种人工神经网络到脉冲神经网络的映射方法。本发明通过对人工神经网络非结构化剪枝,获取随机稀疏的权值矩阵,再设定多个量化位数,使用K均值原型聚类初始化质心,确定量化阈值,测试人工神经网络的识别率并在不满足预期精度时对质心进行微调,对比后得出最佳量化位数。再使用最佳量化位数重复量化过程,设定脉冲化量化最大值,使用交叉熵评估量化前和量化后的序列相似性。得出交叉熵最小的最大值后,完成脉冲神经网络的脉冲化,最终实现从人工神经网络到脉冲神经网络的映射。相比现有技术本发明训练过程简单且映射过程中损失的精度低。

Description

一种人工神经网络到脉冲神经网络的映射方法
技术领域
本发明涉及神经网络技术领域,具体为一种人工神经网络到脉冲神经网络的映射方法。
背景技术
人工神经网络(ANN)是由大量处理单元互联组成的非线性、自适应信息处理系统,由大量的神经元即节点之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于神经网络的记忆。网络的输出则根据网络的连接方式,权重值和激励函数的不同而不同。目前人工神经网络广泛应用于图像处理、自然语言处理等领域,拥有成熟的训练算法,模型性能更好,表现能力强。
脉冲神经网络(SNN)属于第三代神经网络,它仿照生物神经元的运作机制,使用最拟合生物神经元的模型来进行计算,弥合了神经科学和机器学习之间的差距,比传统人工神经网络更加强大。脉冲神经网络使用脉冲序列接受信息,脉冲是发生在时间点上的离散时间,而并非传统的连续值。神经元之间的通信也是通过脉冲来进行,一旦神经元达到了某一电位,即当膜电位大于它的阈值时,脉冲就会出现,每个峰值由代表生物过程的微分方程表示。随后达到电位的神经元会被重置。此外,脉冲神经网络通常是稀疏连接的,并会利用特殊的网络拓扑,具有功耗低、资源消耗少等特点。但由于脉冲不可微的特性,在不损失准确时间信息的前提下,不能使用梯度下降方法来对脉冲神经网络进行训练,因此当前实现人工神经网络转脉冲神经网络大多采用诸如STDP(Spike Timing Dependent Plasticity)等生物课解释性无监督学习方法,而该类型方法存在训练过程困难以及精度低的问题。
发明内容
针对上述存在问题或不足,为了解决现有人工神经网络转脉冲神经网络方法存在训练过程困难以及精度低的问题,本发明提供了一种人工神经网络到脉冲神经网络的映射方法。
一种人工神经网络到脉冲神经网络的映射方法,包括以下步骤:
S1、对目标人工神经网络进行剪枝。
针对目标人工神经网络参数矩阵的每个参数,根据目标人工神经网络的精度需求设定一个阈值TH,采用非结构化剪枝,删除对神经网络最终预测精度贡献小的冗余参数,以得到一个随机稀疏的参数矩阵。对于设定的阈值TH,若参数的绝对值大于阈值TH,则参数保留,若参数的绝对值小于阈值TH,则参数置0,即删除对目标人工神经网络最终预测精度贡献小的冗余参数。由于冗余参数出现位置随机,剪枝后得到一个随机稀疏的参数矩阵,此时参数矩阵使用稀疏矩阵的压缩存储方式进行存储。剪枝得到的小网络在精度上与原始网络相当,但运行速度更快,模型文件更小,从而降低计算与存储开销。
S2:对剪枝后的人工神经网络使用K均值原型聚类进行参数分类及量化。
根据预期精度设定一个量化位数n,n≥1,然后使用K均值原型聚类(K-means)对S1剪枝后的人工神经网络进行参数分类及量化。最终神经网络的每层参数都被分成2n个类别,每一类的质心值也被同时输出。其中n是预设的量化位数,从1开始依次增加,人工神经网络的卷积层越复杂,需要预先指定的量化位数也越大。
量化是一种近似的过程,以适度的误差为代价,使无限精度(或很高精度)的数值可以使用较少的位数表示。这里的量化是指所有的权值都从指定的一系列值中进行选择替代,即完成所有权值的数值共享。
S3:对剪枝后的人工神经网络进行参数替换。
对S1所得到的稀疏参数矩阵中的每个参数,都在S2中被分到一个具体的簇内。基于S2对每个参数的分类,将分在同一簇内的参数均替换成所属簇对应输出的质心值,以降低对存储容量的需求。
即确定对于每一个权值使用哪个量化输出代替值,这一步通常使用一维的K均值原型聚类确定。一个簇内的权值均共享一个值(质心值)。需要注意的是,一旦某个权值指定,使用量化输出的值进行量化,这一选择关系不再发生改变,即下一步量化输出微调,单个权值的量化误差变大。
S4:测试S3参数替换后人工神经网络的精度;
若精度满足性能指标,则进入S6;
若精度不满足性能指标,则根据S3替换的结果,对S2中通过K均值原型聚类得到的质心值进行微调。
微调过程:首先进行正常的前向传播和反向传播,获得参数对应的梯度和学习率;然后对属于同一类内所有参数对应的梯度依次进行求和、乘以学习率,再从原质心值中减去。微调完成后,S3得到的参数稀疏矩阵变成了一个稀疏矩阵加一个查找表,进一步降低了功耗,减少了资源消耗。
S5:对此时的人工神经网络再次进行精度测试。
对于S4得到的人工神经网络:如果精度满足性能指标,则进行下一步;如果精度仍不满足,返回S2,依次增大量化位数,循环迭代,直至精度满足性能指标。
S6:设定人工神经网络脉冲化最大值MAX,对人工神经网络进行脉冲化。
输入S5所得人工神经网络的测试数据,收集其每层的输出数据即待脉冲化数据,从0到待脉冲化数据的最大值之间指定一个值作为脉冲化最大值MAX,若待脉冲化数据超过当前指定的脉冲化最大值MAX,直接替换为当前指定的脉冲化最大值MAX,若小于当前指定的脉冲化最大值MAX的值,对待脉冲化数据进行等距无偏移量化,公式如下:
Figure BDA0003111783030000031
其中X为待脉冲化数据,T为脉冲化最大值MAX,F是脉冲化后可表示的最大值,F的大小是需求指定的脉冲周期数。由此可以得出量化后的脉冲神经网络脉冲传递参数的序列。对神经网路进行脉冲化,即从数值传递参数变为由脉冲传递参数,使用脉冲在时间维度上传递参数近似于对数值的等距无偏移量化。
S7:使用交叉熵评估S6脉冲化前后神经网络的序列相似性。
计算S6中设定的脉冲化最大值MAX下的交叉熵。交叉熵的计算方法如公式所示:
Figure BDA0003111783030000032
其中p(i)是S5所得人工神经网络的数值传递参数的序列,q(i)是S6所得脉冲神经网络的脉冲传递参数的序列。交叉熵公式用以判断p(i)和q(i)序列的相似性,公式计算结果越小,即表明两个序列越相近,脉冲化的效果也就越好。
S8:寻找最小的交叉熵对应的脉冲化最大值MAX并进行人工神经网络脉冲化。
将待脉冲化数据范围的所有值从小到大作为脉冲化最大值MAX重复S6到S7依次遍历,并选择最小的交叉熵所对应的脉冲化最大值MAX,再次进行人工神经网络脉冲化,实现从人工神经网络到脉冲神经网络的映射。
进一步的,所述S2中K均值原型聚类初始质心的获取采用均匀量化,即在参数的最大值和最小值之间均匀的进行量化输出。量化过程中通过K均值原型聚类获取初始质心的方法通常有三种实现方法,分别为均匀量化,随机量化和按密度量化;因均匀量化的初始化效果较好,在权值的最大值和最小值之间隔均匀的去量化输出,得到初始结果。
本发明通过将目标人工神经网络(已完成训练)的权重参数直接映射到脉冲神经网络中,代替脉冲神经网络的训练过程,解决脉冲神经网络难以进行训练的问题。具体包括依次剪枝、量化和脉冲化三个步骤,及该方法中各个超参数(剪枝阈值TH、量化位数和脉冲化最大值MAX)对映射结果的影响测试,在小幅度降低预测效果的前提下,保证了脉冲神经网络功耗低、资源消耗少的优秀特性。本发明结合人工神经网络的训练过程和脉冲神经网络的预测过程,尝试在人工神经元的高性能和脉冲神经元的低功耗中再次进行折中,将人工神经网络训练获得的高性能模型映射到脉冲神经元的低功耗前向传播过程中。相比现有技术本发明训练过程简单且映射过程中损失的精度低。
附图说明
图1是本发明的映射流程图;
图2是实施例人工神经网络的剪枝示意图;
图3是实施例人工神经网络参数量化的流程图;
图4是实施例实现参数量化的示意图;
图5是实施例人工神经网络进行脉冲化,映射到脉冲神经网络的流程图;
图6是实施例所得脉冲神经网络示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将会被忽略。
为了测试本发明的转换效果,首先搭建了一个使用MNIST进行手写数字识别的人工神经网络做为待训练的目标人工神经网络,其网络结构如表(1)所示,该网络在MNIST训练集训练,测试集下测试,测试准确率为97.9%。
表(1):神经网络结构,其中c表示输出channel数量,k表示kernel尺寸,s表示stride
Figure BDA0003111783030000041
S1、对目标人工神经网络进行剪枝。
如图2所示,针对目标人工神经网络参数矩阵的每个参数,采用非结构化剪枝,删除对神经网络最终预测精度贡献小的冗余参数,以得到一个随机稀疏的参数矩阵。设定的阈值TH为0.02,若参数的绝对值大于阈值TH,则参数保留,若参数的绝对值小于阈值TH,则参数置0,即删除对目标人工神经网络最终预测精度贡献小的冗余参数。由于冗余参数出现位置随机,剪枝后得到一个随机稀疏的参数矩阵,此时参数矩阵使用稀疏矩阵的压缩存储方式进行存储。剪枝得到的小网络在精度上与原始网络相当,但运行速度更快,模型文件更小,从而降低计算与存储开销。经过测试,剪枝后人工神经网络的准确率为96.3%。
S2:对剪枝后的人工神经网络使用K均值原型聚类进行参数分类及量化。
实施例人工神经网络参数量化的流程图见图3。根据预期精度设定一个量化位数n,然后使用K均值原型聚类(K-means)对S1剪枝后的人工神经网络进行参数分类及量化。量化是一种近似的过程,以适度的误差为代价,使无限精度(或很高精度)的数值可以使用较少的位数表示。这里的量化是指所有的权值都从指定的一系列值中进行选择替代,即完成所有权值的数值共享。K均值原型聚类方法采用均匀量化,即在参数的最大值和最小值之间均匀的进行量化输出。最终神经网络的每层参数都被分成2n个类别,每一类的质心值也被同时输出。本实施例设置为n=4。
S3:对剪枝后的人工神经网络进行参数替换。
对S1所得到的稀疏参数矩阵中的每个参数,都在S2中被分到一个具体的簇。将分在同一簇的参数均替换成S2中这个簇所输出的质心值,以降低对存储容量的需求。
S4:测试S3参数替换后人工神经网络的精度。
若精度满足性能指标,则进入S6;
若精度不满足性能指标,则根据S3替换的结果,对S2中通过K均值原型聚类得到的质心值进行微调;
微调过程:首先进行正常的前向传播和反向传播,获得参数对应的梯度和学习率;然后对属于同一类内所有参数对应的梯度依次进行求和、乘以学习率,再从原质心值中减去;
微调完成后,S3得到的参数稀疏矩阵变成了一个稀疏矩阵加一个查找表;进一步降低了功耗,减少了资源消耗。实施例实现参数量化的示意图见图4。
S5:对此时的人工神经网络再次进行精度测试。
对于S4得到的人工神经网络进行测试,此时的准确率为96.7%,精度满足性能指标。
S6:设定人工神经网络脉冲化最大值MAX,对人工神经网络进行脉冲化。
实施例人工神经网络进行脉冲化,映射到脉冲神经网络的流程图见图5。输入S5所得人工神经网络的测试数据,收集其每层的输出数据即待脉冲化数据,从0到待脉冲化数据的最大值之间指定一个值作为脉冲化最大值MAX,若待脉冲化数据超过当前指定的脉冲化最大值MAX,直接替换为当前指定的脉冲化最大值MAX,若小于当前指定的脉冲化最大值MAX的值,对待脉冲化数据进行等距无偏移量化,公式如下:
Figure BDA0003111783030000051
其中X为待脉冲化数据,T为脉冲化最大值MAX,F是脉冲化后可表示的最大值,F的大小是需求指定的脉冲周期数,此处设定为256。由此可以得出量化后的脉冲神经网络脉冲传递参数的序列。对神经网路进行脉冲化,即从数值传递参数变为由脉冲传递参数,使用脉冲在时间维度上传递参数近似于对数值的等距无偏移量化。
S7:使用交叉熵评估S6脉冲化前后神经网络的序列相似性。
计算S6中设定的脉冲化最大值MAX下的交叉熵。交叉熵的计算方法如公式所示:
Figure BDA0003111783030000061
其中p(i)是S5所得人工神经网络的数值传递参数的序列,q(i)是S6所得脉冲神经网络的脉冲传递参数的序列。交叉熵公式用以判断p(i)和q(i)序列的相似性,公式计算结果越小,即表明两个序列越相近,脉冲化的效果也就越好。
S8:寻找最小的交叉熵对应的脉冲化最大值MAX并进行人工神经网络脉冲化。
将待脉冲化数据范围的所有值从小到大作为脉冲化最大值MAX重复S6到S7依次遍历,并选择最小的交叉熵所对应的脉冲化最大值MAX。在本实施例中,第一层的脉冲化最大值MAX为1.7853,第二层为8.1125,第三层为11.4399,第四层为7.1004,第五层为9.4372。再次进行人工神经网络脉冲化,实现从人工神经网络到脉冲神经网络的映射,示意图见图6。测试最终的脉冲神经网络的准确率为93.6%,达到目标精度需求,实现了人工神经网络到脉冲神经网络的高效转换。
综上可见,本发明的方法通过对人工神经网络非结构化剪枝,获取随机稀疏的权值矩阵,再设定多个量化位数,使用K均值原型聚类初始化质心,确定量化阈值,测试人工神经网络的识别率并在精度不符合预期时对质心进行微调,对比后得出最佳量化位数。再使用最佳量化位数重复量化过程,设定脉冲化量化最大值,使用交叉熵评估量化前和量化后的序列相似性。得出交叉熵最小的最大值后,完成脉冲神经网络的脉冲化,最终实现从人工神经网络到脉冲神经网络的映射。

Claims (2)

1.一种人工神经网络到脉冲神经网络的映射方法,其特征在于,包括以下步骤:
S1、对目标人工神经网络进行剪枝;
针对目标人工神经网络参数矩阵的每个参数,根据目标人工神经网络的精度需求设定一个阈值TH,采用非结构化剪枝,以得到一个随机稀疏的参数矩阵,此时参数矩阵使用稀疏矩阵的压缩存储方式进行存储;
S2:对剪枝后的人工神经网络使用K均值原型聚类进行参数分类及量化;
根据预期精度设定一个量化位数n,n≥1,然后使用K均值原型聚类对S1剪枝后的人工神经网络进行参数分类及量化;最终神经网络的每层参数都被分成2n个类别,每一类的质心值也被同时输出;
S3:对剪枝后的人工神经网络进行参数替换;
基于S2对每个参数的分类,将分在同一簇内的参数均替换成所属簇对应输出的质心值,以降低对存储容量的需求;
S4:测试S3参数替换后人工神经网络的精度;
若精度满足性能指标,则进入S6;
若精度不满足性能指标,则根据S3替换的结果,对S2中通过K均值原型聚类得到的质心值进行微调;
微调过程:首先进行正常的前向传播和反向传播,获得参数对应的梯度和学习率;然后对属于同一类内所有参数对应的梯度依次进行求和、乘以学习率,再从原质心值中减去;
微调完成后,S3得到的参数稀疏矩阵变成了一个稀疏矩阵加一个查找表;
S5:对此时的人工神经网络再次进行精度测试;
对于S4得到的人工神经网络:如果精度满足性能指标,则进行下一步;如果精度仍不满足,返回S2,依次增大量化位数,循环迭代,直至精度满足性能指标;
S6:设定人工神经网络脉冲化最大值MAX,对人工神经网络进行脉冲化;
输入S5所得人工神经网络的测试数据,收集其每层的输出数据即待脉冲化数据,从0到待脉冲化数据的最大值之间指定一个值作为脉冲化最大值MAX,若待脉冲化数据超过当前指定的脉冲化最大值MAX,直接替换为当前指定的脉冲化最大值MAX,若小于当前指定的脉冲化最大值MAX的值,对待脉冲化数据进行等距无偏移量化,公式如下:
Figure FDA0003111783020000011
其中X为待脉冲化数据,T为脉冲化最大值MAX,F是脉冲化后可表示的最大值,F的大小是需求指定的脉冲周期数;
由此得出量化后的脉冲神经网络脉冲传递参数的序列;
S7:使用交叉熵评估S6脉冲化前后神经网络的序列相似性;
计算S6中设定的脉冲化最大值MAX下的交叉熵,交叉熵的计算方法如公式所示:
Figure FDA0003111783020000021
其中p(i)是S5所得人工神经网络的数值传递参数的序列,q(i)是S6所得脉冲神经网络的脉冲传递参数的序列,交叉熵公式用以判断p(i)和q(i)序列的相似性;
S8:寻找最小的交叉熵对应的脉冲化最大值MAX并进行人工神经网络脉冲化;
将待脉冲化数据范围的所有值从小到大作为脉冲化最大值MAX重复S6到S7依次遍历,然后选择遍历后最小的交叉熵所对应的脉冲化最大值MAX,再次进行人工神经网络脉冲化,实现从人工神经网络到脉冲神经网络的映射。
2.如权利要求1所述人工神经网络到脉冲神经网络的映射方法,其特征在于:所述S2中K均值原型聚类的初始质心获取采用均匀量化。
CN202110651765.1A 2021-06-11 2021-06-11 一种人工神经网络到脉冲神经网络的映射方法 Pending CN113469357A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110651765.1A CN113469357A (zh) 2021-06-11 2021-06-11 一种人工神经网络到脉冲神经网络的映射方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110651765.1A CN113469357A (zh) 2021-06-11 2021-06-11 一种人工神经网络到脉冲神经网络的映射方法

Publications (1)

Publication Number Publication Date
CN113469357A true CN113469357A (zh) 2021-10-01

Family

ID=77869703

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110651765.1A Pending CN113469357A (zh) 2021-06-11 2021-06-11 一种人工神经网络到脉冲神经网络的映射方法

Country Status (1)

Country Link
CN (1) CN113469357A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114997235A (zh) * 2022-06-13 2022-09-02 脉冲视觉(北京)科技有限公司 基于脉冲信号的目标检测处理方法、装置、设备和介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114997235A (zh) * 2022-06-13 2022-09-02 脉冲视觉(北京)科技有限公司 基于脉冲信号的目标检测处理方法、装置、设备和介质

Similar Documents

Publication Publication Date Title
CN112633497B (zh) 一种基于重加权膜电压的卷积脉冲神经网络的训练方法
CN107688850B (zh) 一种深度神经网络压缩方法
US10984308B2 (en) Compression method for deep neural networks with load balance
CN109816026B (zh) 卷积神经网络和脉冲神经网络的融合装置及方法
CN110070172B (zh) 基于双向独立循环神经网络的序列预测模型的建立方法
CN111860982A (zh) 一种基于vmd-fcm-gru的风电场短期风电功率预测方法
CN111898730A (zh) 一种利用图卷积神经网络结构加速的结构优化设计方法
CN112906828A (zh) 一种基于时域编码和脉冲神经网络的图像分类方法
CN110119760B (zh) 一种基于层次化多尺度循环神经网络的序列分类方法
Paupamah et al. Quantisation and pruning for neural network compression and regularisation
US20220114455A1 (en) Pruning and/or quantizing machine learning predictors
CN114186672A (zh) 一种用于脉冲神经网络的高效高精度训练算法
CN115936070A (zh) 一种低延时低功耗脉冲神经网络转换方法
Shin et al. Knowledge distillation for optimization of quantized deep neural networks
CN113469357A (zh) 一种人工神经网络到脉冲神经网络的映射方法
CN115345222A (zh) 一种基于TimeGAN模型的故障分类方法
Goswami et al. Automatic object recognition from satellite images using artificial neural network
Yao et al. Rapq: Rescuing accuracy for power-of-two low-bit post-training quantization
CN117034060A (zh) 基于ae-rcnn的洪水分级智能预报方法
CN117458480A (zh) 基于改进lof的光伏发电功率短期预测方法及系统
CN117372843A (zh) 基于首脉冲编码的图片分类模型训练方法、图片分类方法
CN111260054A (zh) 一种提高联想记忆脉冲神经网络准确度的学习方法
CN115952915A (zh) 一种使用模糊熵分类的能耗预测优化方法
CN113111774B (zh) 一种基于主动增量式微调的雷达信号调制方式识别方法
CN115422977A (zh) 基于cnn-bls网络的雷达辐射源信号识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20211001

RJ01 Rejection of invention patent application after publication