CN116797851B - 图像分类模型的类脑连续学习方法、图像分类方法和装置 - Google Patents
图像分类模型的类脑连续学习方法、图像分类方法和装置 Download PDFInfo
- Publication number
- CN116797851B CN116797851B CN202310946560.5A CN202310946560A CN116797851B CN 116797851 B CN116797851 B CN 116797851B CN 202310946560 A CN202310946560 A CN 202310946560A CN 116797851 B CN116797851 B CN 116797851B
- Authority
- CN
- China
- Prior art keywords
- layer
- local
- image
- neural network
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 115
- 238000013145 classification model Methods 0.000 title claims abstract description 101
- VYFYYTLLBUKUHU-UHFFFAOYSA-N dopamine Chemical compound NCCC1=CC=C(O)C(O)=C1 VYFYYTLLBUKUHU-UHFFFAOYSA-N 0.000 claims abstract description 232
- 210000002569 neuron Anatomy 0.000 claims abstract description 194
- 238000013528 artificial neural network Methods 0.000 claims abstract description 149
- 229960003638 dopamine Drugs 0.000 claims abstract description 116
- 230000000946 synaptic effect Effects 0.000 claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims description 53
- 230000000694 effects Effects 0.000 claims description 42
- 238000006243 chemical reaction Methods 0.000 claims description 38
- 239000011159 matrix material Substances 0.000 claims description 29
- 230000004913 activation Effects 0.000 claims description 23
- 239000012528 membrane Substances 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 14
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 5
- 230000036390 resting membrane potential Effects 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 description 18
- 210000004556 brain Anatomy 0.000 description 12
- 230000008859 change Effects 0.000 description 12
- 238000005265 energy consumption Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 210000002364 input neuron Anatomy 0.000 description 3
- 206010027175 memory impairment Diseases 0.000 description 3
- 210000000225 synapse Anatomy 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 241000283080 Proboscidea <mammal> Species 0.000 description 1
- 210000004227 basal ganglia Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 210000002442 prefrontal cortex Anatomy 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 238000012421 spiking Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能领域,提供一种图像分类模型的类脑连续学习方法、图像分类方法和装置,学习方法包括:获取初始神经网络、样本图像及其对应的图像类别标签;将输入信号输入至初始神经网络,得到各层神经元输出的图像特征;对图像类别标签进行编码,得到样本图像的期望;并将期望分别映射到各层中,得到各层的局部多巴胺浓度;基于局部多巴胺浓度,对各层的初始局部梯度进行调制,得到各层的调制后局部梯度;基于调制后局部梯度,对初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。本发明提供的图像分类模型的类脑连续学习方法、图像分类方法和装置,可以最大程度上保留旧任务信息,同时实现对新任务的学习能力。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种图像分类模型的类脑连续学习方法、图像分类方法和装置。
背景技术
近年来,许多深度神经网络被提出用于图像识别和分类,然而,这些深度神经网络存在很多不足。第一个问题就是在连续增量学习下出现灾难性遗忘现象,灾难性遗忘是指一个网络对新任务进行训练时对旧任务学习知识(尤其指权重信息)的覆盖或遗忘问题,导致网络在多任务连续学习下表现不佳。第二个问题是传统的反向传播算法计算能耗比较高,主要是由于该算法需要计算每一层的梯度误差并逐层反向传播到输入层。第三个问题是传统的反向传播算法需要连续梯度才能进行训练,这与大脑中的学习方法有所差距,因此生物合理性较弱。
现有的图像分类方法能够分别在一定程度上解决上述的问题,如OWM(OrthogonalWeight Modification),EWC(Elastic Weight Consolidation)方法被来解决灾难性遗忘的问题;适用于脉冲神经网络的STDP(Spike-Timing Dependent Plasticity),Hebbian方法被用来解决计算能耗高,生物合理性差的问题。然而,上述图像分类方法并不能同时兼顾生物合理性、连续学习不遗忘和低能耗,从而影响图像分类效率和准确性。
发明内容
本发明提供一种图像分类模型的类脑连续学习方法、图像分类方法和装置,用以解决现有技术中不能同时兼顾生物合理性、连续学习不遗忘和低能耗,从而影响图像分类效率和准确性的缺陷。
本发明提供一种图像分类模型的类脑连续学习方法,包括:
获取初始神经网络、样本图像及其对应的图像类别标签;基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,并将所述输入信号输入至所述初始神经网络,得到所述初始神经网络中各层神经元输出的图像特征;对所述图像类别标签进行编码,得到所述样本图像的期望;并基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度;基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于所述任一层神经元输出的图像特征或所述任一层神经元激活函数的导数,以及所述任一层的上一层神经元输出的图像特征确定;基于所述调制后局部梯度,对所述初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。
根据本发明提供的图像分类模型的类脑连续学习方法,所述基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,包括:基于所述各层的局部多巴胺浓度,对所述各层的局部非线性神经元活动进行选择,得到各层的选择结果;基于所述各层的选择结果,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度。
根据本发明提供的图像分类模型的类脑连续学习方法,所述基于所述各层的局部多巴胺浓度,对所述各层的局部非线性神经元活动进行选择,得到各层的选择结果,包括:
将所述各层的局部多巴胺浓度分别输入如下多巴胺调制函数,并将所述多巴胺调制函数的输出结果作为所述各层的选择结果;
其中,flocal(λl,hl)是多巴胺调制函数,λinv和θmax分别为极性反转因子和最大调制因子,λ1被设置为0.5λinv,λl为第l层的局部多巴胺浓度,hl为第l层的神经元活动,该活动范围为0-1之间,·为点积操作。
根据本发明提供的图像分类模型的类脑连续学习方法,所述基于所述各层的选择结果,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,包括:将所述各层的选择结果与所述各层的初始局部梯度相乘,并基于相乘结果得到各层的所述调制后局部梯度,调制后局部梯度通过如下公式计算得到:
其中ΔWl为调制后局部梯度,η是学习率,flocal(λl,hl)是l层的局部非线性神经元活动的选择结果,为神经网络l层的初始局部梯度。
根据本发明提供的图像分类模型的类脑连续学习方法,所述基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度,包括:基于如下公式计算得到所述各层的局部多巴胺浓度:
其中,λl为各层中输入层或隐藏层l对应的局部多巴胺浓度,为输入层或隐藏层l对应的全局期望转换矩阵,不同层的全局期望转换矩阵不同,λL为各层中输出层L对应的局部多巴胺浓度,/>为输出层L对应的全局期望转换矩阵,uL为输出层L输出的图像特征,E为样本图像的期望。
根据本发明提供的图像分类模型的类脑连续学习方法,若所述初始神经网络的结构类型为卷积脉冲神经网络,则所述基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,包括:将所述样本图像编码为脉冲序列,并将所述脉冲序列确定为所述输入信号;所述任一层的初始局部梯度基于如下公式计算:
其中,为所述卷积脉冲神经网络第l层的初始局部梯度,/>和/>分别为l层神经元在t-1时刻和l-1层神经元在t时刻的脉冲信号,/>为t时刻l层神经元的膜电位,Vth为神经元阈值,Vlens为神经元阈值窗口,任一层神经元的膜电位基于所述任一层的上一层神经元的脉冲信号确定。
根据本发明提供的图像分类模型的类脑连续学习方法,所述任一层神经元的脉冲信号基于如下公式进行更新:
其中,为训练批次中输入脉冲信号的平均值,/>是维度转换插值函数;G(·)是门控函数,当G(·)的输入大于0时,G(·)的输出为1,否则G(·)的输出为0;bl是预先定义的偏差值,Ml是对神经元的选择性调制门控,σl是l层的激活函数,/>是l层经过调制后的神经元活动,由上一层神经元的脉冲信号Sl-1和权重Wl以及Ml门控共同计算得出。
根据本发明提供的图像分类模型的类脑连续学习方法,所述任一层神经元的膜电位基于如下公式进行更新:
其中,为l层神经元i在t时刻的膜电位,C为神经元i的膜电容,g为神经元i的突触电导率,Vreset为神经元i的静息膜电位,N为上一隐藏层中与神经元i连接的神经元的数量,/>为l-1层中神经元j与神经元i之间连接的突触权重,Xj(t)为神经元i接收的来自神经元j的输入,Sl为l层神经元脉冲信号。
根据本发明提供的图像分类模型的类脑连续学习方法,若所述初始神经网络的结构类型为卷积人工神经网络,则所述输入信号为所述样本图像;
所述任一层的初始局部梯度基于如下公式计算:
其中,为输入层或隐藏层l的初始局部梯度,/>为输出层L的初始局部梯度,/>为输入层或隐藏层l的激活函数导数,/>为输出层L的激活函数导数,ul-1为第l-1层神经元的输出,uL-1为输出层L前一层神经元的输出。
本发明还提供一种图像分类方法,包括:
获取待分类图像;将所述待分类图像输入至图像分类模型,得到所述图像分类模型输出的图像分类结果,所述图像分类模型基于所述的图像分类模型的类脑连续学习方法得到。
本发明还提供一种图像分类模型的类脑连续学习装置,包括:
第一获取单元,用于获取初始神经网络、样本图像及其对应的图像类别标签;第一输出单元,用于基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,并将所述输入信号输入至所述初始神经网络,得到所述初始神经网络中各层神经元输出的图像特征;映射单元,用于对所述图像类别标签进行编码,得到所述样本图像的期望;并基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度;调制单元,用于基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于所述任一层神经元输出的图像特征和所述任一层的上一层神经元输出的图像特征确定;更新单元,用于基于所述调制后局部梯度,对所述初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。
本发明还提供一种图像分类装置,包括:
第二获取单元,用于获取待分类图像;第二输出单元,用于将所述待分类图像输入至图像分类模型,得到所述图像分类模型输出的图像分类结果,所述图像分类模型基于所述的图像分类模型的类脑连续学习方法得到。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述图像分类模型的类脑连续学习方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述图像分类模型的类脑连续学习方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述图像分类模型的类脑连续学习方法。
本发明提供的图像分类模型的类脑连续学习方法、图像分类方法和装置,通过将将样本图像的期望映射到对应层中获得各层的局部多巴胺浓度,基于局部多巴胺浓度对初始局部梯度进行调制,得到各层的调制后局部梯度,并基于调制后局部梯度进行权重更新,得到图像分类模型。
这类通过全局多巴胺调制启发的局部可塑性调节的连续学习,由于借鉴了大脑中神经网络的可塑性机制,如多巴胺调制选择性的调节特定神经元活动,并通过局部可塑性机制将选择的神经元活动改变传递到突触活动改变上,以达到针对性地对某些权重进行修改,因此可以最大程度上保留旧任务信息(旧任务突触权重),同时实现对新任务的学习能力。实现的基于多巴胺的连续学习方法有效地减轻了在学习新任务的过程中的灾难性遗忘的问题,同时由于其计算简单、且可以和信号前馈过程并行计算(如标签到期望的编码、全局期望转换矩阵对局部多巴胺浓度的计算、初始局部梯度的计算等),因此可以降低内存占用、减少计算能耗,且有利于置于芯片上使用。
此外,由于学习中能够有效避免灾难性遗忘的问题,由此学习得到的图像分类模型能够有效提高图像分类的准确性,特别适用于在开放环境中较大规模很多图像类别的应用场景中。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的图像分类模型的类脑连续学习方法的流程示意图之一;
图2是本发明提供的图像分类模型的类脑连续学习方法的流程示意图之二;
图3是本发明提供的图像分类模型的类脑连续学习方法的流程示意图之三;
图4是本发明提供的图像分类方法的流程示意图;
图5是本发明提供的图像分类模型的类脑连续学习装置的结构示意图;
图6是本发明提供的图像分类装置的结构示意图;
图7是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
连续学习(Continual Learning或CL),又称终身学习(Lifelong Learning)是指人类所具有的可持续学习的能力。目前,人工智能(A1)中的机器学习(Machine Learning或ML)还缺乏连续学习的能力,在连续学习的过程中会出现“灾难性遗忘”问题。所以,在图像分类场景下,现在的AI需要事前知道需要学习的图像类别,当遇到事先未知的图像类别时,就需要和原来的图像类别(如果保留了的话)一起重新学习。但许多实际应用(如自动驾驶、产品推荐等)中,不可能知道将来会遇到怎样的新场景新产品内容,这就导致很多实际应用难以展开,或者需要付出很大的重新学习代价。
相关图像分类方法中,往往在训练过程中需要一次性使用全部类别的样本图像进行训练以避免灾难性遗忘的问题,导致训练成本较高。
此外,现有的图像分类模型的训练方法并不能同时兼顾生物合理性、连续学习不遗忘和低能耗,从而影响图像分类效率和准确性。
基于上述考虑,本发明的发明构思在于:借鉴了大脑中神经网络的可塑性机制,多巴胺调制选择性的调节特定神经元活动,并通过局部可塑性机制将选择的神经元活动改变传递到突触活动改变上,以达到针对性地对突触权重进行修改,在使用部分训练数据进行连续学习的任务中,本发明提供的方法可以最大程度上保留旧任务信息(旧任务突触权重),同时实现对新任务的学习能力。
基于上述发明构思,本发明提供一种图像分类模型的类脑连续学习方法和装置,应用于人工智能技术中图像分类模型的连续学习场景,以提高图像分类模型的图像分类准确性。
下面将结合附图详细描述本发明的技术方案。图1是本发明提供的图像分类模型的类脑连续学习方法的流程示意图之一,该方法中各步骤的执行主体可以是图像分类模型的类脑连续学习装置,该装置可通过软件和/或硬件实现,该装置可集成在电子设备中,电子设备可以是终端设备(如智能手机、个人电脑等),也可以是服务器(如本地服务器或云端服务器,也可以为服务器集群等),也可以是处理器,也可以是芯片等。如图1所示,该方法可以包括如下步骤:
步骤110,获取初始神经网络、样本图像及其对应的图像类别标签。
具体地,初始神经网络即待进行类脑连续学习的神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。
初始神经网络可以是人工神经网络(Artificial Neural Network,ANN),卷积神经网络(Convolutional Neural Networks,CNN),也可以是脉冲神经网络(SpikingNeutral Network,SNN),还可以是循环神经网络(Recurrent Neural Network,RNN),本发明实施例对此不作具体限定。
优选地,初始神经网络可以是卷积脉冲神经网络或卷积人工神经网络,卷积脉冲神经网络即卷积网络和脉冲神经网络的融合网络,卷积人工神经网络即卷积网络和人工神经网络的融合网络。其中卷积网络由卷积层和全连接层组成。其中卷积层和全连接网络之间使用前馈结构连接。
样本图像即可作为训练样本的图像,样本图像可通过图像采集设备采集得到,也可以从公开的图像数据集获取,例如MNIST、Cifar-10。样本图像对应的图像类别标签可以是预先标记好的,可以反映样本图像中的图像类别,例如汽车、人、动物、植物、物体、建筑物,更进一步地,还可以包括动物类别(狗、猫、兔子、大象等),植物类别(树木、花草等)。
步骤120,基于样本图像和初始神经网络的结构类型,确定输入信号,并将输入信号输入至初始神经网络,得到初始神经网络中各层神经元输出的图像特征。
初始神经网络的结构类型可包括卷积脉冲神经网络或卷积人工神经网络。考虑到不同结构类型网络的网络输入不同,可根据样本图像和初始神经网络的结构类型,确定输入信号。例如,若初始神经网络的结构类型为卷积脉冲神经网络,则输入信号为脉冲信号,可将样本图像转化为脉冲信号作为输入信号;若初始神经网络的结构类型为卷积人工神经网络,则可直接将样本图像作为输入信号。
输入信号确定之后,可将输入信号输入至初始神经网络,得到初始神经网络中各层神经元输出的图像特征。例如,初始神经网络中可包括输入层、卷积层、隐藏层、全连接层和输出层,输入层的神经元数量根据输入样本图像的维度决定,输出神经元数量根据图像类别的个数决定,隐藏层神经元的个数可以自由确定。各层神经元均可输出样本图像的图像特征。其中输入层输出是对输入图像编码后在高维空间中的表示结果,隐藏层输出是在高维空间中进行编码的结果,输出层输出的是降维之后进行分类的结果。
步骤130,对图像类别标签进行编码,得到样本图像的期望;并基于初始神经网络中各层分别对应的全局期望转换矩阵,将样本图像的期望分别映射到各层中,得到各层的局部多巴胺浓度。
具体地,考虑到相关技术中采用反向传播算法计算能耗比较高,且实际效果和大脑相比还相差很远。而人脑特有的概念细胞的形成是人类具有连续学习能力的核心原因,本发明实施例提供的方法采用类脑的连续学习方法,将样本图像的期望分别映射到各层中,得到各层的局部多巴胺浓度。局部多巴胺浓度能够反映对不同类别图像的预期结构,基于局部多巴胺浓度可以选择性的调节特定神经元活动。
样本图像的期望可通过对图像类别标签进行编码得到,例如可将图像类别标签通过2个正态分布(均值分别为0和2,方差同为1)编码后,得到样本图像的期望。
为了实现将样本图像的期望分别映射到各层中,可通过初始神经网络中各层分别对应的全局期望转换矩阵实现。全局期望转换矩阵为均匀矩阵,各层分别对应的全局期望转换矩阵可以相同,也可以不同,但具备生物合理性,可以与实际鼠脑生物多巴胺传播矩阵一致。
例如,可基于初始神经网络中隐藏层对应的全局期望转换矩阵,将样本图像的期望映射到隐藏层中,得到隐藏层的局部多巴胺浓度;还可基于初始神经网络中输出层对应的全局期望转换矩阵,将样本图像的期望映射到输出层中,得到输出层的局部多巴胺浓度。各层局部多巴胺浓度可以选择性的调节各层特定神经元活动。
步骤140,基于各层的局部多巴胺浓度,对各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于任一层神经元输出的图像特征或所述任一层神经元激活函数的导数,以及任一层的上一层神经元输出的图像特征确定。
具体地,各层的局部多巴胺浓度可以选择性的调节各层特定神经元活动,在此基础上,可借鉴类脑的局部可塑性机制,将选择的神经元活动改变传递到突触活动改变上,以达到针对性地对某些权重进行修改,因此可以最大程度上保留旧的图像分类任务信息(旧任务突触权重),同时实现对新的图像分类任务的学习能力。
此处,各层的初始局部梯度可表征旧任务突触权重,其中任一层的初始局部梯度基于任一层神经元输出的图像特征或任一层神经元激活函数的导数,以及任一层的上一层神经元输出的图像特征确定。
例如,针对卷积脉冲神经网络,任一层的初始局部梯度基于任一层神经元输出的图像特征以及任一层的上一层神经元输出的图像特征确定;针对卷积人工神经网络,任一层的初始局部梯度基于任一层神经元激活函数的导数以及任一层的上一层神经元输出的图像特征确定。
各层的调制后局部梯度可表征新任务突触权重,可基于各层的局部多巴胺浓度,对各层的初始局部梯度进行调制后得到。
步骤150,基于调制后局部梯度,对初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。
具体地,得到调制后局部梯度之后,可基于调制后局部梯度,对初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。根据该方法训练得到的图像分类模型可用于对待分类图像进行分类,特别是在开放环境中较大规模很多类别的应用场景中,例如自动驾驶场景中,能够显著提高图像分类的准确性。
考虑到相关技术中,针对网络学习旧任务后再学习新任务时的灾难性遗忘问题,该问题描述了特定神经网络在学习新知识的时候,由于更改了全局的网络权重而将旧知识覆盖或遗忘的现象。
本发明实施例提供的图像分类模型的类脑连续学习方法,通过将将样本图像的期望映射到对应层中获得各层的局部多巴胺浓度,借鉴生物大脑通过基底神经节远程分泌不同浓度的多巴胺来调节前额叶皮层的局部神经元活动。基于局部多巴胺浓度对初始局部梯度进行调制,得到各层的调制后局部梯度,并基于调制后局部梯度进行权重更新,得到图像分类模型。再结合从神经元活动改变到突触权重改变的可塑性传递,从而实现在计算上针对不同的输入图像类别信息而选择性地修改神经网络权重,达到在连续学习过程中可以有效存储旧任务知识的目的,且同时具有接受新任务知识的能力。
这类通过全局多巴胺调制启发的局部可塑性调节的连续学习,由于借鉴了大脑中神经网络的可塑性机制,如多巴胺调制选择性的调节特定神经元活动,并通过局部可塑性机制将选择的神经元活动改变传递到突触活动改变上,以达到针对性地对某些权重进行修改,因此可以最大程度上保留旧任务信息(旧任务突触权重),同时实现对新任务的学习能力。实现的基于多巴胺的连续学习方法有效地减轻了在学习新任务的过程中的灾难性遗忘的问题,同时由于其计算简单、且可以和信号前馈过程并行计算(如标签到期望的编码、全局期望转换矩阵对局部多巴胺浓度的计算、初始局部梯度的计算等),因此可以降低内存占用、减少计算能耗,且有利于置于芯片上使用。
本发明实施例提供的图像分类模型的类脑连续学习方法可以减弱灾难性遗忘的问题,实现连续学习,提高了图像分类模型的鲁棒性和适应性,同时该方法对不同类型任务的神经元选择以及从神经元到突触权重的局部可塑性传递,两者的复杂性都较低,因此相对已有的正交分解、样本回放等方法极大的降低了计算能耗。
此外,由于学习中能够有效避免灾难性遗忘的问题,由此学习得到的图像分类模型能够有效提高图像分类的准确性,特别适用于在开放环境中较大规模很多图像类别的应用场景中。
基于上述实施例,步骤140中基于各层的局部多巴胺浓度,对各层的初始局部梯度进行调制,得到各层的调制后局部梯度,具体包括:
步骤141,基于各层的局部多巴胺浓度,对各层的局部非线性神经元活动进行选择,得到各层的选择结果;
步骤142,基于各层的选择结果,对各层的初始局部梯度进行调制,得到各层的调制后局部梯度。
具体地,针对各层的调制后局部梯度,可通过首先基于局部多巴胺浓度,对各层的局部非线性神经元活动进行调制,得到各层的选择结果,然后基于各层的选择结果,对各层的初始局部梯度进行调制实现。
针对步骤141,可通过多巴胺调制函数实现。可将各层的局部多巴胺浓度分别输入如下多巴胺调制函数,并将多巴胺调制函数的输出结果作为各层的选择结果。
在一些实施例中,多巴胺调制函数可表示为如下形式:
其中,flocal(λl,hl)是多巴胺调制函数,λinv和θmax分别为极性反转因子和最大调制因子,λ1被设置为0.5λinv,λl为第l层的局部多巴胺浓度,hl为第l层的神经元活动,该活动范围为0-1之间,·为点积操作。
基于上述任一实施例,步骤142具体可包括:
将各层的选择结果与各层的初始局部梯度相乘,并基于相乘结果得到各层的调制后局部梯度。
调制后局部梯度通过如下公式计算得到:
其中ΔWl为调制后局部梯度,η是学习率,flocal(λl,hl)是l层的局部非线性神经元活动的选择结果,为神经网络l层的初始局部梯度。
具体地,得到局部多巴胺浓度针对各层的局部非线性神经元活动的各层的选择结果之后,可借鉴类脑的局部可塑性机制,将选择的神经元活动改变传递到突触活动改变上,以达到针对性地对某些权重进行修改。针对调制后局部梯度,可首先将各层的选择结果与各层的初始局部梯度相乘,得到相乘结果,在此基础上,基于相乘结果得到各层的调制后局部梯度。例如,可直接将相乘结果作为各层的调制后局部梯度,还可基于相乘结果和学习率,得到各层的调制后局部梯度。
在一些实施例中,若初始神经网络的结构类型为卷积脉冲神经网络,任一层的调制后局部梯度可基于如下公式计算得到:
其中ΔWSNN,l为调制后局部梯度,η是学习率,flocal(λSNN,l,hl)是l层的局部非线性神经元活动选择结果,为卷积脉冲神经网络l层的初始局部梯度。
在一些实施例中,若初始神经网络的结构类型为卷积人工神经网络,任一层的调制后局部梯度可基于如下公式计算得到:
其中ΔWANN,l和ΔWANN,L分别为l层和输出层L的调制后局部梯度,η是学习率,flocal(λANN,l,hl)和flocal(λANN,L,hL)分别是l层和输出层L的局部非线性神经元活动选择结果,和/>分别为卷积人工神经网络l层和输出层L的初始局部梯度。
基于上述任一实施例,步骤130中基于初始神经网络中各层分别对应的全局期望转换矩阵,将样本图像的期望分别映射到各层中,得到各层的局部多巴胺浓度,具体包括:
基于如下公式计算得到所述各层的局部多巴胺浓度:
其中,λl为各层中输入层或隐藏层l对应的局部多巴胺浓度,为输入层或隐藏层l对应的全局期望转换矩阵,不同层的全局期望转换矩阵不同,λL为各层中输出层L对应的局部多巴胺浓度,/>为输出层L对应的全局期望转换矩阵,uL为输出层L输出的图像特征,E为样本图像的期望。
可理解的是,针对输入层和隐藏层突触,可将样本图像的期望映射到对应层中获得局部多巴胺浓度;针对输出层,将图像类别标签直接与输出值相减得到误差,误差通过全局期望转换矩阵生成局部多巴胺浓度。
此外,针对卷积脉冲神经网络,uL可理解为在当前时刻输出层L输出的脉冲信号,用于表征输出层L输出的图像特征。
基于上述任一实施例,若初始神经网络的结构类型为卷积脉冲神经网络,则基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,包括:将样本图像编码为脉冲序列,并将脉冲序列确定为输入信号,具体可使用泊松编码的方式,将样本图像编码为脉冲序列。对于卷积脉冲神经网络,隐藏层中任一神经元的膜电位基于上一层神经元的脉冲信号确定。
其中,任一层的初始局部梯度基于如下公式计算:
其中,为卷积脉冲神经网络第l层的初始局部梯度,/>和/>分别为l层神经元在t-1时刻和l-1层神经元在t时刻的脉冲信号,/>为t时刻l层神经元的膜电位,Vth为神经元阈值,Vlens为神经元阈值窗口,任一层神经元的膜电位基于所述任一层的上一层神经元的脉冲信号确定。
基于上述任一实施例,所述任一层神经元的脉冲信号基于如下公式进行更新:
其中,为训练批次中输入脉冲信号的平均值,/>是维度转换插值函数,G(·)是门控函数,当G(·)的输入大于0时,G(·)的输出为1,否则G(·)的输出为0;,bl是预先定义的偏差值,Ml是对神经元的选择性调制门控,σl是l层的激活函数,/>是l层经过调制后的神经元活动,由上一层神经元的脉冲信号Sl-1和权重Wl以及Ml门控共同计算得出。
具体地,任一层神经元的脉冲信号是根据如下步骤进行更新的:
基于输入神经元的膜电位和阈值,确定输入神经元的脉冲信号;
基于输入神经元的脉冲信号,生成对任一神经元的选择性调制门控,上一层脉冲信号与权重以及选择性调制门控共同计算得到当前层的脉冲输出。
基于上述任一实施例,所述任一层神经元的膜电位基于如下公式进行更新:
其中,为l层神经元i在t时刻的膜电位,C为神经元i的膜电容,g为神经元i的突触电导率,Vreset为神经元i的静息膜电位,N为上一隐藏层中与神经元i连接的神经元的数量,/>为l-1层中神经元j与神经元i之间连接的突触权重,Xj(t)为神经元i接收的来自神经元j的输入,Sl为l层神经元脉冲信号。
基于上述任一实施例,若初始神经网络的结构类型为卷积人工神经网络,则输入信号为样本图像。对于卷积人工神经网络,任一神经元的输入基于上一层神经元的输出确定。
其中,任一层的初始局部梯度基于如下公式计算:
其中,为输入层或隐藏层l的初始局部梯度,/>为输出层L的初始局部梯度,/>为输入层或隐藏层l的激活函数导数,/>为输出层L的激活函数导数,ul-1为第l-1层神经元的输出,uL-1为输出层L前一层神经元的输出。
基于上述任一实施例,图2是本发明提供的图像分类模型的类脑连续学习方法的流程示意图之二,如图2所示,以初始神经网络为卷积脉冲神经网络为例,该方法包括:
步骤1,获取卷积脉冲神经网络、样本图像及其对应的图像类别标签,并将样本图像编码成脉冲序列。
步骤2,将脉冲序列输入到图2所示的卷积脉冲神经网络中,该网络包括卷积层1,卷积层2,隐藏层和输出层;
步骤3,将图像类别标签使用全局期望转换矩阵映射到隐藏层中获得局部多巴胺浓度,使用多巴胺调制函数对局部多巴胺浓度进行编码,生成非线性神经元活动选择结果,将选择结果作用在卷积层和隐藏层的突触连接中;
步骤4,计算初始局部梯度,与步骤3生成的局部非线性调制结果共同作用生成调制后局部梯度;使用调制后局部梯度对网络突触连接权重进行更新,得到图像分类模型。
在实际应用时,使用输出层对隐藏层生成的脉冲序列进行解码,选择脉冲发放率最高的神经元对应的类别作为图像分类结果。
基于上述任一实施例,图3是本发明提供的图像分类模型的类脑连续学习方法的流程示意图之三,如图3所示,以初始神经网络为卷积人工神经网络为例,该方法与上述方法的区别是,在步骤1中无需将样本图像编码成脉冲序列,在步骤3中可以直接将样本图像输入到图3所示的卷积人工神经网络中。其余步骤可参考上述实施例,在此不再赘述。在实际应用时,可选择输出值最高的神经元作为图像分类结果。
本发明实施例提供的图像分类模型的类脑连续学习方法,使用多巴胺神经调节剂启发的方法进行训练,具有以下优点:
(1)可扩展性:网络支持卷积脉冲神经网络和卷积人工神经网络,可以支持增加隐藏层数或卷积层数,同时可以使用相同的训练方式支持其他类型的神经网络如循环神经网络。
(2)低功耗能力:使用多巴胺神经调节剂启发的训练方法,在训练过程中具有较低的训练能耗,同时保持比较高的网络性能。
(3)连续学习能力:在训练过程中可以在保持旧样本图像的信息的前提下支持对新样本图像的学习,能够在减少灾难性遗忘的情况下实现高效的神经网络学习。
(4)生物合理性:作为一种脑启发训练方法,本发明提供的方法更接近大脑中突触的学习方式;采用多巴胺调制函数与初始局部梯度结合的训练方法可以在实现高性能图像分类能力的基础上具有更好的生物合理性。
基于上述任一实施例,图4是本发明提供的图像分类方法的流程示意图,如图4所示,本发明实施例提供的图像分类方法,包括:
步骤410,获取待分类图像;
步骤420,将所述待分类图像输入至图像分类模型,得到所述图像分类模型输出的图像分类结果,所述图像分类模型基于上述的图像分类模型的类脑连续学习方法得到。
具体地,待分类图像即需要进行图像分类的图像,待分类图像可以是任意图像,可以是图像采集设备采集得到的,例如自动驾驶场景下配置在车辆上的相机实时采集得到的;还可以是从网络上下载得到的,本发明实施例对此不作具体限定。
在执行步骤420之前,可根据上述图像分类模型的类脑连续学习方法训练得到图像分类模型,在此基础上,将待分类图像输入至训练好的图像分类模型,得到图像分类模型输出的图像分类结果。
本发明实施例提供的方法,基于图像分类模型的类脑连续学习方法得到图像分类模型,能够有效提高图像分类的准确性,特别适用于在开放环境中较大规模很多图像类别的应用场景中。
下面对本发明提供的图像分类模型的类脑连续学习装置进行描述,下文描述的图像分类模型的类脑连续学习装置与上文描述的图像分类模型的类脑连续学习方法可相互对应参照。
在本发明各实施例的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。
基于上述任一实施例,图5是本发明提供的图像分类模型的类脑连续学习装置的结构示意图,如图5所示,该装置包括:第一获取单元510,用于获取初始神经网络、样本图像及其对应的图像类别标签;第一输出单元520,用于基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,并将所述输入信号输入至所述初始神经网络,得到所述初始神经网络中各层神经元输出的图像特征;映射单元530,用于对所述图像类别标签进行编码,得到所述样本图像的期望;并基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度;调制单元540,用于基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于所述任一层神经元输出的图像特征或所述任一层神经元激活函数的导数,以及所述任一层的上一层神经元输出的图像特征确定;更新单元550,用于基于所述调制后局部梯度,对所述初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。
本发明实施例提供的图像分类模型的类脑连续学习装置,通过将将样本图像的期望映射到对应层中获得各层的局部多巴胺浓度,基于局部多巴胺浓度对初始局部梯度进行调制,得到各层的调制后局部梯度,并基于调制后局部梯度进行权重更新,得到图像分类模型。
这类通过全局多巴胺调制启发的局部可塑性调节的连续学习,由于借鉴了大脑中神经网络的可塑性机制,如多巴胺调制选择性的调节特定神经元活动,并通过局部可塑性机制将选择的神经元活动改变传递到突触活动改变上,以达到针对性地对某些权重进行修改,因此可以最大程度上保留旧任务信息(旧任务突触权重),同时实现对新任务的学习能力。实现的基于多巴胺的连续学习方法有效地减轻了在学习新任务的过程中的灾难性遗忘的问题,同时由于其计算简单、且可以和信号前馈过程并行计算(如标签到期望的编码、全局期望转换矩阵对局部多巴胺浓度的计算、初始局部梯度的计算等),因此可以降低内存占用、减少计算能耗,且有利于置于芯片上使用。
基于上述实施例,调制单元540具体用于:基于所述局部多巴胺浓度,对所述各层的局部非线性神经元活动进行选择,得到各层的选择结果;基于所述各层的选择结果,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度。
基于上述实施例,调制单元540还具体用于:将所述局部多巴胺浓度分别输入如下多巴胺调制函数,并将所述多巴胺调制函数的输出结果作为所述各层的选择结果;
其中,flocal(λl,hl)是多巴胺调制函数,λinv和θmax分别为极性反转因子和最大调制因子,λ1被设置为0.5λinv,λl为第l层的局部多巴胺浓度,hl为第l层的神经元活动,该活动范围为0-1之间,·为点积操作。
基于上述任一实施例,调制单元540还具体用于:将所述各层的选择结果与所述各层的初始局部梯度相乘,并基于相乘结果得到各层的调制后局部梯度。调制后局部梯度通过如下公式计算得到:
其中ΔWl为调制后局部梯度,η是学习率,flocal(λl,hl)是l层的局部非线性神经元活动的选择结果,为神经网络l层的初始局部梯度。
基于上述任一实施例,映射单元530具体用于:
基于如下公式计算得到所述各层的局部多巴胺浓度:
其中,λl为各层中输入层或隐藏层l对应的局部多巴胺浓度,为输入层或隐藏层l对应的全局期望转换矩阵,不同层的全局期望转换矩阵不同,λL为各层中输出层L对应的局部多巴胺浓度,/>为输出层L对应的全局期望转换矩阵,uL为输出层L输出的图像特征,E为样本图像的期望。
基于上述任一实施例,若所述初始神经网络的结构类型为卷积脉冲神经网络,则第一输出单元520还用于:将所述样本图像编码为脉冲序列,并将所述脉冲序列确定为所述输入信号;该装置还包括初始局部梯度确定单元,用于:
所述任一层的初始局部梯度基于如下公式计算:
其中,为所述卷积脉冲神经网络第l层的初始局部梯度,/>和/>分别为l层神经元在t-1时刻和l-1层神经元在t时刻的脉冲信号,/>为t时刻l层神经元的膜电位,Vth为神经元阈值,Vlens为神经元阈值窗口,任一层神经元的膜电位基于所述任一层的上一层神经元的脉冲信号确定。
基于上述任一实施例,所述任一层神经元的脉冲信号基于如下公式进行更新:
其中,为训练批次中输入脉冲信号的平均值,/>是维度转换插值函数,G(·)是门控函数,当G(·)的输入大于0时,G(·)的输出为1,否则G(·)的输出为0;bl是预先定义的偏差值,Ml是对神经元的选择性调制门控,σl是l层的激活函数,/>是l层经过调制后的神经元活动,由上一层神经元的脉冲信号Sl-1和权重Wl以及Ml门控共同计算得出。
基于上述任一实施例,所述任一层神经元的膜电位基于如下公式进行更新:
/>
其中,为l层神经元i在t时刻的膜电位,C为神经元i的膜电容,g为神经元i的突触电导率,Vreset为神经元i的静息膜电位,N为上一隐藏层中与神经元i连接的神经元的数量,/>为l-1层中神经元j与神经元i之间连接的突触权重,Xj(t)为神经元i接收的来自神经元j的输入,Sl为l层神经元脉冲信号。
基于上述任一实施例,若所述初始神经网络的结构类型为卷积人工神经网络,则所述输入信号为所述样本图像;
所述任一层的初始局部梯度基于如下公式计算:
其中,为输入层或隐藏层l的初始局部梯度,/>为输出层L的初始局部梯度,/>为输入层或隐藏层l的激活函数导数,/>为输出层L的激活函数导数,ul-1为第l-1层神经元的输出,uL-1为输出层L前一层神经元的输出。
基于上述任一实施例,图6是本发明提供的图像分类装置的结构示意图,如图6所示,图像分类装置包括:第二获取单元610,用于获取待分类图像;第二输出单元620,用于将所述待分类图像输入至图像分类模型,得到所述图像分类模型输出的图像分类结果,所述图像分类模型基于所述的图像分类模型的类脑连续学习方法得到。
本发明实施例提供的图像分类装置,基于图像分类模型的类脑连续学习方法得到图像分类模型,能够有效提高图像分类的准确性,特别适用于在开放环境中较大规模很多图像类别的应用场景中。
图7示例了一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行图像分类模型的类脑连续学习方法,该方法包括:
获取初始神经网络、样本图像及其对应的图像类别标签;
基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,并将所述输入信号输入至所述初始神经网络,得到所述初始神经网络中各层神经元输出的图像特征;
对所述图像类别标签进行编码,得到所述样本图像的期望;并基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度;
基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于所述任一层神经元输出的图像特征或所述任一层神经元激活函数的导数,以及所述任一层的上一层神经元输出的图像特征确定;
基于所述调制后局部梯度,对所述初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的图像分类模型的类脑连续学习方法,该方法包括:
获取初始神经网络、样本图像及其对应的图像类别标签;
基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,并将所述输入信号输入至所述初始神经网络,得到所述初始神经网络中各层神经元输出的图像特征;
对所述图像类别标签进行编码,得到所述样本图像的期望;并基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度;
基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于所述任一层神经元输出的图像特征或所述任一层神经元激活函数的导数,以及所述任一层的上一层神经元输出的图像特征确定;
基于所述调制后局部梯度,对所述初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的图像分类模型的类脑连续学习方法,该方法包括:
获取初始神经网络、样本图像及其对应的图像类别标签;
基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,并将所述输入信号输入至所述初始神经网络,得到所述初始神经网络中各层神经元输出的图像特征;
对所述图像类别标签进行编码,得到所述样本图像的期望;并基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度;
基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于所述任一层神经元输出的图像特征或所述任一层神经元激活函数的导数,以及所述任一层的上一层神经元输出的图像特征确定;
基于所述调制后局部梯度,对所述初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种图像分类模型的类脑连续学习方法,其特征在于,包括:
获取初始神经网络、样本图像及其对应的图像类别标签;
基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,并将所述输入信号输入至所述初始神经网络,得到所述初始神经网络中各层神经元输出的图像特征;
对所述图像类别标签进行编码,得到所述样本图像的期望;并基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度;所述全局期望转换矩阵为均匀矩阵;
基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于所述任一层神经元输出的图像特征或所述任一层神经元激活函数的导数,以及所述任一层的上一层神经元输出的图像特征确定;
基于所述调制后局部梯度,对所述初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型;
所述基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度,包括:
基于如下公式计算得到所述各层的局部多巴胺浓度:
其中,λl为各层中输入层或隐藏层l对应的局部多巴胺浓度,为输入层或隐藏层l对应的全局期望转换矩阵,不同层的全局期望转换矩阵不同,λL为各层中输出层L对应的局部多巴胺浓度,/>为输出层L对应的全局期望转换矩阵,uL为输出层L输出的图像特征,E为样本图像的期望;
所述基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,包括:
基于所述各层的局部多巴胺浓度,对所述各层的局部非线性神经元活动进行选择,得到各层的选择结果;
基于所述各层的选择结果,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度;
所述基于所述各层的局部多巴胺浓度,对所述各层的局部非线性神经元活动进行选择,得到各层的选择结果,包括:
将所述各层的局部多巴胺浓度分别输入如下多巴胺调制函数,并将所述多巴胺调制函数的输出结果作为所述各层的选择结果;
其中,flocal(λl,hl)是多巴胺调制函数,λinv和θmax分别为极性反转因子和最大调制因子,λ1被设置为0.5λinv,λl为第l层的局部多巴胺浓度,hl为第l层的神经元活动,该活动范围为0-1之间,·为点积操作;
所述基于所述各层的选择结果,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,包括:
将所述各层的选择结果与所述各层的初始局部梯度相乘,并基于相乘结果得到所述各层的调制后局部梯度,所述调制后局部梯度通过如下公式计算得到:
其中ΔWl为调制后局部梯度,η是学习率,flocal(λl,hl)是l层的局部非线性神经元活动的选择结果,为神经网络l层的初始局部梯度。
2.根据权利要求1所述的图像分类模型的类脑连续学习方法,其特征在于,若所述初始神经网络的结构类型为卷积脉冲神经网络,则所述基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,包括:
将所述样本图像编码为脉冲序列,并将所述脉冲序列确定为所述输入信号;
所述任一层的初始局部梯度基于如下公式计算:
其中,为所述卷积脉冲神经网络第l层的初始局部梯度,/>和/>分别为l层神经元在t-1时刻和l-1层神经元在t时刻的脉冲信号,/>为t时刻l层神经元的膜电位,Vth为神经元阈值,Vlens为神经元阈值窗口,任一层神经元的膜电位基于所述任一层的上一层神经元的脉冲信号确定。
3.根据权利要求2所述的图像分类模型的类脑连续学习方法,其特征在于,所述任一层神经元的脉冲信号基于如下公式进行更新:
其中,为训练批次中输入脉冲信号的平均值,/>是维度转换插值函数;G(·)是门控函数,当G(·)的输入大于0时,G(·)的输出为1,否则G(·)的输出为0;bl是预先定义的偏差值,Ml是对神经元的选择性调制门控,σl是l层的激活函数,/>是l层经过选择后的神经元活动,由上一层神经元的脉冲信号Sl-1和权重Wl以及Ml门控共同计算得出。
4.根据权利要求2所述的图像分类模型的类脑连续学习方法,其特征在于,所述任一层神经元的膜电位基于如下公式进行更新:
其中,为l层神经元i在t时刻的膜电位,C为神经元i的膜电容,g为神经元i的突触电导率,Vreset为神经元i的静息膜电位,N为上一隐藏层中与神经元i连接的神经元的数量,为l-1层中神经元j与神经元i之间连接的突触权重,Xj(t)为神经元i接收的来自神经元j的输入,Sl为l层神经元脉冲信号。
5.根据权利要求1所述的图像分类模型的类脑连续学习方法,其特征在于,若所述初始神经网络的结构类型为卷积人工神经网络,则所述输入信号为所述样本图像;
所述任一层的初始局部梯度基于如下公式计算:
其中,为输入层或隐藏层l的初始局部梯度,/>为输出层L的初始局部梯度,/>为输入层或隐藏层l的激活函数导数,/>为输出层L的激活函数导数,ul-1为第l-1层神经元的输出,uL-1为输出层L前一层神经元的输出。
6.一种图像分类方法,其特征在于,包括:
获取待分类图像;
将所述待分类图像输入至图像分类模型,得到所述图像分类模型输出的图像分类结果,所述图像分类模型基于如权利要求1-5中任一项所述的图像分类模型的类脑连续学习方法得到。
7.一种图像分类模型的类脑连续学习装置,其特征在于,包括:
第一获取单元,用于获取初始神经网络、样本图像及其对应的图像类别标签;
第一输出单元,用于基于所述样本图像和所述初始神经网络的结构类型,确定输入信号,并将所述输入信号输入至所述初始神经网络,得到所述初始神经网络中各层神经元输出的图像特征;
映射单元,用于对所述图像类别标签进行编码,得到所述样本图像的期望;并基于所述初始神经网络中各层分别对应的全局期望转换矩阵,将所述样本图像的期望分别映射到所述各层中,得到各层的局部多巴胺浓度;所述全局期望转换矩阵为均匀矩阵;
调制单元,用于基于所述各层的局部多巴胺浓度,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度,其中任一层的初始局部梯度基于所述任一层神经元输出的图像特征或所述任一层神经元激活函数的导数,以及所述任一层的上一层神经元输出的图像特征确定;
更新单元,用于基于所述调制后局部梯度,对所述初始神经网络的突触连接权重进行更新,以完成类脑连续学习,得到图像分类模型;
所述映射单元,具体用于:
基于如下公式计算得到所述各层的局部多巴胺浓度:
其中,λl为各层中输入层或隐藏层l对应的局部多巴胺浓度,为输入层或隐藏层l对应的全局期望转换矩阵,不同层的全局期望转换矩阵不同,λL为各层中输出层L对应的局部多巴胺浓度,/>为输出层L对应的全局期望转换矩阵,uL为输出层L输出的图像特征,E为样本图像的期望;
所述调制单元,具体用于:
基于所述各层的局部多巴胺浓度,对所述各层的局部非线性神经元活动进行选择,得到各层的选择结果;
基于所述各层的选择结果,对所述各层的初始局部梯度进行调制,得到各层的调制后局部梯度;
所述调制单元,还具体用于:
将所述各层的局部多巴胺浓度分别输入如下多巴胺调制函数,并将所述多巴胺调制函数的输出结果作为所述各层的选择结果;
其中,flocal(λl,hl)是多巴胺调制函数,λinv和θmax分别为极性反转因子和最大调制因子,λ1被设置为0.5λinv,λl为第l层的局部多巴胺浓度,hl为第l层的神经元活动,该活动范围为0-1之间,·为点积操作;
所述调制单元,还具体用于:
将所述各层的选择结果与所述各层的初始局部梯度相乘,并基于相乘结果得到所述各层的调制后局部梯度,所述调制后局部梯度通过如下公式计算得到:
其中ΔWl为调制后局部梯度,η是学习率,flocal(λl,hl)是l层的局部非线性神经元活动的选择结果,为神经网络l层的初始局部梯度。
8.一种图像分类装置,其特征在于,包括:
第二获取单元,用于获取待分类图像;
第二输出单元,用于将所述待分类图像输入至图像分类模型,得到所述图像分类模型输出的图像分类结果,所述图像分类模型基于如权利要求1-5中任一项所述的图像分类模型的类脑连续学习方法得到。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述的图像分类模型的类脑连续学习方法,或如权利要求6所述的图像分类方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的图像分类模型的类脑连续学习方法,或如权利要求6所述的图像分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310946560.5A CN116797851B (zh) | 2023-07-28 | 2023-07-28 | 图像分类模型的类脑连续学习方法、图像分类方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310946560.5A CN116797851B (zh) | 2023-07-28 | 2023-07-28 | 图像分类模型的类脑连续学习方法、图像分类方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116797851A CN116797851A (zh) | 2023-09-22 |
CN116797851B true CN116797851B (zh) | 2024-02-13 |
Family
ID=88040409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310946560.5A Active CN116797851B (zh) | 2023-07-28 | 2023-07-28 | 图像分类模型的类脑连续学习方法、图像分类方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116797851B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108197698A (zh) * | 2017-12-13 | 2018-06-22 | 中国科学院自动化研究所 | 基于多模态融合的多脑区协同自主决策方法 |
CN110543888A (zh) * | 2019-07-16 | 2019-12-06 | 浙江工业大学 | 一种基于群集递归神经网络的图像分类方法 |
CN113239974A (zh) * | 2021-04-21 | 2021-08-10 | 中国传媒大学 | 一种可连续学习的快速图像数据分类方法 |
CN113705670A (zh) * | 2021-08-27 | 2021-11-26 | 上海交通大学医学院附属仁济医院 | 基于磁共振成像和深度学习的脑部图像分类方法及设备 |
CN114186672A (zh) * | 2021-12-16 | 2022-03-15 | 西安交通大学 | 一种用于脉冲神经网络的高效高精度训练算法 |
CN115600669A (zh) * | 2022-10-17 | 2023-01-13 | 之江实验室(Cn) | 基于局部分类器的高效深层脉冲神经网络学习方法 |
CN116304676A (zh) * | 2023-02-01 | 2023-06-23 | 瑞鞍星医疗科技(苏州)有限公司 | 脑活动状态分类模型训练方法、装置和设备 |
CN116403054A (zh) * | 2023-05-17 | 2023-07-07 | 上海交通大学 | 基于类脑网络模型的图像优化分类方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9542644B2 (en) * | 2013-08-13 | 2017-01-10 | Qualcomm Incorporated | Methods and apparatus for modulating the training of a neural device |
US20200222010A1 (en) * | 2016-04-22 | 2020-07-16 | Newton Howard | System and method for deep mind analysis |
-
2023
- 2023-07-28 CN CN202310946560.5A patent/CN116797851B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108197698A (zh) * | 2017-12-13 | 2018-06-22 | 中国科学院自动化研究所 | 基于多模态融合的多脑区协同自主决策方法 |
CN110543888A (zh) * | 2019-07-16 | 2019-12-06 | 浙江工业大学 | 一种基于群集递归神经网络的图像分类方法 |
CN113239974A (zh) * | 2021-04-21 | 2021-08-10 | 中国传媒大学 | 一种可连续学习的快速图像数据分类方法 |
CN113705670A (zh) * | 2021-08-27 | 2021-11-26 | 上海交通大学医学院附属仁济医院 | 基于磁共振成像和深度学习的脑部图像分类方法及设备 |
CN114186672A (zh) * | 2021-12-16 | 2022-03-15 | 西安交通大学 | 一种用于脉冲神经网络的高效高精度训练算法 |
CN115600669A (zh) * | 2022-10-17 | 2023-01-13 | 之江实验室(Cn) | 基于局部分类器的高效深层脉冲神经网络学习方法 |
CN116304676A (zh) * | 2023-02-01 | 2023-06-23 | 瑞鞍星医疗科技(苏州)有限公司 | 脑活动状态分类模型训练方法、装置和设备 |
CN116403054A (zh) * | 2023-05-17 | 2023-07-07 | 上海交通大学 | 基于类脑网络模型的图像优化分类方法 |
Non-Patent Citations (2)
Title |
---|
"The role of state uncertainty in the dynamics of dopamine";John G. Mikhael 等;《current biology》;第32卷(第5期);第1077-1087页 * |
"基于强化学习的神经动作选择模型研究";张晓函;《中国博士学位论文全文数据库基础科学辑》(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116797851A (zh) | 2023-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109635917B (zh) | 一种多智能体合作决策及训练方法 | |
Taherkhani et al. | A review of learning in biologically plausible spiking neural networks | |
CN110555523B (zh) | 一种基于脉冲神经网络的短程跟踪方法及系统 | |
Panda et al. | Asp: Learning to forget with adaptive synaptic plasticity in spiking neural networks | |
US7904398B1 (en) | Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times | |
CN112633497A (zh) | 一种基于重加权膜电压的卷积脉冲神经网络的训练方法 | |
Fu et al. | An ensemble unsupervised spiking neural network for objective recognition | |
CN107609634A (zh) | 一种基于增强极速学习的卷积神经网络训练方法 | |
CN113537455B (zh) | 突触权重训练方法、电子设备和计算机可读介质 | |
Tan et al. | Proximal policy based deep reinforcement learning approach for swarm robots | |
Gosmann et al. | CUE: A unified spiking neuron model of short-term and long-term memory. | |
CN116080688B (zh) | 一种类脑启发的智能驾驶视觉辅助方法、装置及存储介质 | |
CN116797851B (zh) | 图像分类模型的类脑连续学习方法、图像分类方法和装置 | |
KR102191346B1 (ko) | 버스트 스파이크에 기반한 스파이킹 신경망 생성 방법 및 스파이킹 신경망 기반 추론 장치 | |
CN110543888B (zh) | 一种基于群集递归神经网络的图像分类方法 | |
CN109190692B (zh) | 基于生物大脑认知和抉择机理的运动物体识别方法及系统 | |
Grossberg | Birth of a learning law | |
Sprevak | Predictive coding III: The algorithmic level | |
She et al. | Safe-dnn: a deep neural network with spike assisted feature extraction for noise robust inference | |
Chau | Algal bloom prediction with particle swarm optimization algorithm | |
CN111582462B (zh) | 权值原位更新方法、装置、终端设备和可读存储介质 | |
Senn et al. | Spike-timing dependent plasticity, learning rules | |
CN113962356A (zh) | 神经网络的裁剪、训练方法、类识别方法及相关装置 | |
CN117808040B (zh) | 一种基于脑图的低遗忘热点事件预测方法及装置 | |
Yi et al. | Pattern recognition of a spiking neural network based on visual motion model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |