CN116403054A - 基于类脑网络模型的图像优化分类方法 - Google Patents

基于类脑网络模型的图像优化分类方法 Download PDF

Info

Publication number
CN116403054A
CN116403054A CN202310553246.0A CN202310553246A CN116403054A CN 116403054 A CN116403054 A CN 116403054A CN 202310553246 A CN202310553246 A CN 202310553246A CN 116403054 A CN116403054 A CN 116403054A
Authority
CN
China
Prior art keywords
layer
neuron
brain
output
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310553246.0A
Other languages
English (en)
Inventor
李想
易平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN202310553246.0A priority Critical patent/CN116403054A/zh
Publication of CN116403054A publication Critical patent/CN116403054A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Image Analysis (AREA)

Abstract

一种基于类脑网络模型的图像优化分类方法,在离线阶段构造包含特征提取部分、分类部分、脉冲神经元模型、使用泊松编码的编码层、改进的反馈连接以及改进的抑制连接的类脑网络模型并进行训练;在在线阶段采用训练后的类脑网络模型进行图像优化分类。本发明根据生物神经元的电位变化的工作原理,基于生物神经元的带泄漏整合发放模型(LIF)的电学和数学特性设计脉冲神经元模型,并使用脉冲神经元搭建实现。

Description

基于类脑网络模型的图像优化分类方法
技术领域
本发明涉及的是一种神经网络应用领域的技术,具体是一种基于脉冲神经元和大脑视皮层的类脑网络模型的图像优化分类方法。
背景技术
类脑网络的工作模式更符合大脑认知能力,自主学习、关联分析能力强,鲁棒性较强,计算资源消耗较少,逻辑分析和推理能力较强,具备认知推理能力,时序相关性好,更符合现实世界的情景,可能解决通用场景问题,实现强人工智能和通用智能。然而,类脑网络的研究十分缓慢,受限于生物神经元和神经系统的复杂结构,现有的人工智能模型中使用的计算不能模拟生物神经元的工作原理。
发明内容
本发明针对现有技术图像分类工作的鲁棒性较低的问题,提出一种基于类脑网络模型的图像优化分类方法,根据生物神经元的电位变化的工作原理,基于生物神经元的带泄漏整合发放模型(LIF)的电学和数学特性设计脉冲神经元模型,并使用脉冲神经元搭建实现。
本发明是通过以下技术方案实现的:
本发明涉及一种基于类脑网络模型的图像优化分类方法,在离线阶段构造包含特征提取部分、分类部分、脉冲神经元模型、使用泊松编码的编码层、改进的反馈连接以及改进的抑制连接的类脑网络模型并进行训练;在在线阶段采用训练后的类脑网络模型进行图像优化分类。
所述的类脑网络模型包括:一个泊松编码层、五个二维卷积层、七个激活函数层、三个最大值池化层、一个一维化层、两个全连接层和一个softmax层,其中:泊松编码层构成输入数据预处理部分;依次相连的第一二维卷积层、第一激活函数层、第一最大值池化层、第二二维卷积层、第二激活函数层、第二最大值池化层、第三二维卷积层、第三激活函数层、第四二维卷积层、第三激活函数层、第五二维卷积层、第四激活函数层和第三最大值池化层构成特征提取部分;依次相连的一维化层、第一全连接层、第五激活函数层、第二全连接层、第六激活函数层和softmax连接层构成分类部分;第二最大值池化层的输出端和第三最大值池化层的输出端均连接至第一卷积层的输入端,以及第三最大值池化层的输出端与第二卷积层的输入端相连并添加转置卷积计算从而构成改进的反馈连接;
所述的七个激活函数层中均设有脉冲神经元模型,该模型使用带有电阻和电容的RC电路模拟生物神经元的电位变化,具体为:
Figure BDA0004232046280000021
其中:Vm≥0为神经元的膜电位,Rm>0为神经元的电阻值,Cm>0为电路中电容器的电容值,I>0为外部输入的信号大小,时间t=0,1,2,3,...。当膜电位Vm大于电位阈值Vth时,神经元发出一个脉冲信号δ(t)=1并恢复静息电位。当t=0时刻输入值的大小为I0,在之后的时间段内没有其他输入,则神经元的值会根据输入信号的值以及设定的时间常数τm=RmCm执行指数衰减/>
Figure BDA00042320462800000215
Figure BDA0004232046280000022
当有其他输入的时候,神经元的电位值会首先执行衰减,再累加新的输入信号;当神经元的电位值Vm大于阈值Vth时,神经元发出一个脉冲信号并恢复静息电位,其中静息电位Vrest=0。
所述的脉冲神经元模型中的神经元的输出数据受计算输出和来自其他神经元的抑制强度的共同影响,具体为:
Figure BDA0004232046280000023
其中:yij为输出矩阵中(i,j)位置的输出值,xij为(i,j)位置的神经元对分类结果的贡献,/>
Figure BDA0004232046280000024
为(i,j)位置的神经元受到的侧抑制强度。侧抑制强度具体为:/>
Figure BDA0004232046280000025
其中:η为可学习的随机初始化的参数,uv代表输出矩阵中在(i,j)位置相邻的所有的位置,/>
Figure BDA0004232046280000026
为位置(u,v)到位置(i,j)的欧式距离,δ(·)为冲激函数,xuv为位置(u,v)的神经元对分类结果的贡献。
所述的改进的抑制连接具体包括:
i)计算
Figure BDA0004232046280000027
和/>
Figure BDA0004232046280000028
其中:μ是该层计算输出数据的平均值,(H,W,C)分别代表宽度、长度和通道数,uv代表计算输出矩阵中的所有位置,
Figure BDA0004232046280000029
为(u,v)位置神经元的计算输出值,σ为该层计算输出数据的方差。
ii)计算每个神经元受到的抑制强度:
Figure BDA00042320462800000210
Figure BDA00042320462800000211
其中:/>
Figure BDA00042320462800000212
为(i,j)位置的神经元受到的抑制强度,a和b是可学习的随机初始化的参数,e是自然对数的底数,/>
Figure BDA00042320462800000216
为求平均值,uv代表输出矩阵中除了(i,j)以外所有的位置,duv=|u-i|+|v-j|为(u,v)到(i,j)之间的距离,sinh(·)为双曲正弦函数,δ(·)为冲激函数。每个神经元受到同层所有神经元的抑制,神经元的距离越近,抑制强度越高。
iii)计算神经元的输出:
Figure BDA00042320462800000213
其中:yij为(i,j)位置神经元的最终输出值,/>
Figure BDA00042320462800000214
为固定的函数计算。当抑制强度大于神经元的计算输出数值时,神经元被彻底抑制,否则,神经元的输出数据被抑制连接抵消一部分。
所述的输入数据预处理是指:使用泊松过程对输入数据进行编码,具体为:
Figure BDA00042320462800000217
Figure BDA0004232046280000031
其中:P(X=k)为X=k事件的概率,X为输出的脉冲数量,k为非负整数,λ为非负整数,是与输入数据的大小成正比的激发频率,e为自然对数的底数。
所述的反馈连接是指:将类脑网络模型第三个最大值池化层的输出结果连接到第一个卷积层之前,具体为:XC1=YPC+YMP3,其中:XC1为第一个二维卷积层接受的输入数据,YPC为泊松编码层的输出数据,YMP3为第三个最大值池化层的输出数据。
所述的转置卷积计算具体为:XC1=YPC+TC(YMP2)+TC(YMP3)和XC2=YC1+TC(YMP3),其中:XC1为第一个二维卷积层接受的输入数据,YPC为泊松编码层的输出数据,YMP2为第二个最大值池化层的输出数据,YMP3为第三个最大值池化层的输出数据,XC2为第二个二维卷积层接受的输入数据,YC1为第一个二维卷积层的输出数据,TC(·)代表进行转置卷积计算。
技术效果
本发明通过基于大脑视皮层结构设计的改进的反馈连接结构和改进的抑制连接结构,构造得到的类脑网络模型,在Brain-Score工具评测得分相较于其他若干种常见的神经网络模型有一定的提高。使用公开的数据集对本发明的类脑网络模型进行训练,训练结束后使用公开的对抗攻击算法对本发明的类脑网络模型进行攻击,本发明的类脑网络模型表现出更高的鲁棒性。
附图说明
图1为本发明流程图;
图2为改进的反馈连接示意图;
图3为改进的抑制连接示意图;
图4和图5为实施例效果示意图。
具体实施方式
如图1所示,为本实施例涉及一种基于脉冲神经元模型和大脑视皮层结构的类脑网络模型的图像优化分类方法,使用PyTorch、SpikingJelly和NumPy等工具包实现。采用了CIFAR-10数据集,具体步骤包括:
步骤一,搭建包含特征提取部分和分类部分的用于图像分类的AlexNet神经网络。
步骤二,使用脉冲神经元模型替换步骤一中AlexNet神经网络中的神经元。使用SpikingJelly内置的spikingjelly.activation_based.neuron中的IFNode神经元模型作为脉冲神经元模型,用该神经元模型替换步骤一中搭建的AlexNet神经网络中激活函数层的神经元模型。
步骤三,在AlexNet网络的最前端添加使用泊松编码的编码层。使用SpikingJelly内置的spikingjelly.activation_based.encoding中的PoissonEncoder作为编码层,添加到AlexNet网络的最前端,用于根据输入的图像产生对应的脉冲序列。
步骤四,在AlexNet网络中添加改进的反馈连接。将第二个最大值池化层的输出结果YMP2和第三个最大值池化层的输出结果YMP2连接到第一个卷积层之前,将第三个最大值池化层的输出结果YMP3连接到第二个卷积层之前,并添加转置卷积计算TC(·)。如图2所示。
步骤五,在AlexNet网络中添加改进的抑制连接。首先计算每层计算输出数据的平均值μ和方差σ,据此计算每个神经元受到的抑制强度
Figure BDA0004232046280000041
最后根据神经元的计算输出数据
Figure BDA0004232046280000042
和受到的抑制强度/>
Figure BDA0004232046280000043
计算出神经元的最终输出值yij。如图3所示。
步骤六,对类脑网络模型进行图像分类工作的训练:首先设定参数,设定学习率lr=0.001,批训练大小batch_size=32,损失函数使用交叉熵损失,优化器使用SGD优化,训练的最大轮数max_epochs=100。使用CIFAR-10数据集,对类脑网络模型进行图像分类工作的训练,训练完成后得到训练后的类脑网络模型。
经过具体实际实验,为反映提出的搭建类脑网络网络模型的方法的效果,与常见的几种人工智能模型进行对比,选取AlexNet、VGG-11、VGG-19、ResNet-18、DenseNet和SqueezeNet模型,并分别进行与步骤六所述的相同的训练过程,最后使用Brain-Score评估它们的神经元激活相似度。模型的得分越高,说明模型的类脑度越高,得分结果如图4所示。
为反映搭建的类脑网络模型在图像分类工作上的鲁棒性,将搭建的类脑网络模型和AlexNet进行与步骤六相同的训练,再选取常见的FGSM、BIM、PGD和CW2对抗攻击算法分别对两种模型进行对抗攻击,得到对应的对抗样本。分别计算类脑网络模型和AlexNet模型在不同对抗攻击算法的对抗样本上的图像分类准确率,与训练时的图像分类准确率做对比,计算出两种模型图像分类准确率的下降幅度,下降幅度越小,说明模型的鲁棒性越好,结果如图5所示。
与现有技术相比,本发明通过基于脉冲神经元模型和大脑视皮层结构搭建类脑网络模型能够取得比主流人工智能模型更高的得分,展现出对大脑更高的相似度。在CIFAR-10的图像分类工作上,模型在面对对抗攻击算法的攻击时,展现出了更好的鲁棒性。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

Claims (8)

1.一种基于脉冲神经元模型的类脑智能模型的搭建方法,其特征在于,在离线阶段构造包含特征提取部分、分类部分、脉冲神经元模型、使用泊松编码的编码层、改进的反馈连接以及改进的抑制连接的类脑网络模型并进行训练;在在线阶段采用训练后的类脑网络模型进行图像优化分类;
所述的类脑网络模型包括:一个泊松编码层、五个二维卷积层、七个激活函数层、三个最大值池化层、一个一维化层、两个全连接层和一个softmax层,其中:泊松编码层构成输入数据预处理部分;依次相连的第一二维卷积层、第一激活函数层、第一最大值池化层、第二二维卷积层、第二激活函数层、第二最大值池化层、第三二维卷积层、第三激活函数层、第四二维卷积层、第三激活函数层、第五二维卷积层、第四激活函数层和第三最大值池化层构成特征提取部分;依次相连的一维化层、第一全连接层、第五激活函数层、第二全连接层、第六激活函数层和softmax连接层构成分类部分;第二最大值池化层的输出端和第三最大值池化层的输出端均连接至第一卷积层的输入端,以及第三最大值池化层的输出端与第二卷积层的输入端相连并添加转置卷积计算从而构成改进的反馈连接。
2.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的七个激活函数层中均设有脉冲神经元模型,该模型使用带有电阻和电容的RC电路模拟生物神经元的电位变化,具体为:
Figure FDA0004232046260000011
其中:Vm≥0为神经元的膜电位,Rm>0为神经元的电阻值,Cm>0为电路中电容器的电容值,I>0为外部输入的信号大小,时间t=0,1,2,3,...;当膜电位Vm大于电位阈值Vth时,神经元发出一个脉冲信号δt=1并恢复静息电位;当t=0时刻输入值的大小为I0,在之后的时间段内没有其他输入,则神经元的值会根据输入信号的值以及设定的时间常数τm=RmCm执行指数衰减/>
Figure FDA0004232046260000012
Figure FDA0004232046260000013
当有其他输入的时候,神经元的电位值会首先执行衰减,再累加新的输入信号;当神经元的电位值Vm大于阈值Vth时,神经元发出一个脉冲信号并恢复静息电位,其中静息电位Vrest=0。
3.根据权利要求2所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的神经元的输出数据受计算输出和来自其他神经元的抑制强度的共同影响,具体为:
Figure FDA0004232046260000014
其中:yij为输出矩阵中(i,j)位置的输出值,xij为(i,j)位置的神经元对分类结果的贡献,/>
Figure FDA0004232046260000021
为(i,j)位置的神经元受到的侧抑制强度;侧抑制强度具体为:
Figure FDA0004232046260000022
Figure FDA0004232046260000023
其中:η为可学习的随机初始化的参数,uv代表输出矩阵中在(i,j)位置相邻的所有的位置,/>
Figure FDA0004232046260000024
为位置(u,v)到位置(i,j)的欧式距离,δ(·)为冲激函数,xuv为位置(u,v)的神经元对分类结果的贡献。
4.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的改进的抑制连接具体包括:
i)计算
Figure FDA0004232046260000025
和/>
Figure FDA0004232046260000026
其中:μ是该层计算输出数据的平均值,(H,W,C)分别代表宽度、长度和通道数,uv代表计算输出矩阵中的所有位置,/>
Figure FDA0004232046260000027
为(u,v)位置神经元的计算输出值,σ为该层计算输出数据的方差;
ii)计算每个神经元受到的抑制强度:
Figure FDA0004232046260000028
其中:/>
Figure FDA0004232046260000029
为(i,j)位置的神经元受到的抑制强度,a和b是可学习的随机初始化的参数,e是自然对数的底数,/>
Figure FDA00042320462600000213
为求平均值,uv代表输出矩阵中除了(i,j)以外所有的位置,duv=|u-i|+|v-j|为(u,v)到(i,j)之间的距离,sinh(·)为双曲正弦函数,δ(·)为冲激函数;每个神经元受到同层所有神经元的抑制,神经元的距离越近,抑制强度越高;
iii)计算神经元的输出:
Figure FDA00042320462600000210
其中:yij为(i,j)位置神经元的最终输出值,/>
Figure FDA00042320462600000211
为固定的函数计算;当抑制强度大于神经元的计算输出数值时,神经元被彻底抑制,否则,神经元的输出数据被抑制连接抵消一部分。
5.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的输入数据预处理是指:使用泊松过程对输入数据进行编码,具体为:
Figure FDA00042320462600000212
其中:P(X=k)为X=k事件的概率,X为输出的脉冲数量,k为非负整数,λ为非负整数,是与输入数据的大小成正比的激发频率,e为自然对数的底数。
6.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的反馈连接是指:将类脑网络模型第三个最大值池化层的输出结果连接到第一个卷积层之前,具体为:XC1=YPC+YMP3,其中:XC1为第一个二维卷积层接受的输入数据,YPC为泊松编码层的输出数据,YMP3为第三个最大值池化层的输出数据。
7.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的转置卷积计算具体为:XC1=YPC+TC(YMP2)+TC(YMP3)和XC2=YC1+TC(YMP3),其中:XC1为第一个二维卷积层接受的输入数据,YPC为泊松编码层的输出数据,YMP2为第二个最大值池化层的输出数据,YMP3为第三个最大值池化层的输出数据,XC2为第二个二维卷积层接受的输入数据,YC1为第一个二维卷积层的输出数据,TC(·)代表进行转置卷积计算。
8.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的训练是指:首先设定参数,设定学习率lr=0.001,批训练大小batch_size=32,损失函数使用交叉熵损失,优化器使用SGD优化,训练的最大轮数max_epochs=100;使用CIFAR-10数据集,对类脑网络模型进行图像分类工作的训练,训练完成后得到训练后的类脑网络模型。
CN202310553246.0A 2023-05-17 2023-05-17 基于类脑网络模型的图像优化分类方法 Pending CN116403054A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310553246.0A CN116403054A (zh) 2023-05-17 2023-05-17 基于类脑网络模型的图像优化分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310553246.0A CN116403054A (zh) 2023-05-17 2023-05-17 基于类脑网络模型的图像优化分类方法

Publications (1)

Publication Number Publication Date
CN116403054A true CN116403054A (zh) 2023-07-07

Family

ID=87010691

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310553246.0A Pending CN116403054A (zh) 2023-05-17 2023-05-17 基于类脑网络模型的图像优化分类方法

Country Status (1)

Country Link
CN (1) CN116403054A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116797851A (zh) * 2023-07-28 2023-09-22 中国科学院自动化研究所 图像分类模型的类脑连续学习方法、图像分类方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116797851A (zh) * 2023-07-28 2023-09-22 中国科学院自动化研究所 图像分类模型的类脑连续学习方法、图像分类方法和装置
CN116797851B (zh) * 2023-07-28 2024-02-13 中国科学院自动化研究所 图像分类模型的类脑连续学习方法、图像分类方法和装置

Similar Documents

Publication Publication Date Title
CN109597043B (zh) 基于量子粒子群卷积神经网络的雷达信号识别方法
CN110048827B (zh) 一种基于深度学习卷积神经网络的类模板攻击方法
CN108764540B (zh) 基于并行lstm串联dnn的供水管网压力预测方法
WO2019091020A1 (zh) 权重数据存储方法和基于该方法的神经网络处理器
CN115018021B (zh) 基于图结构与异常注意力机制的机房异常检测方法及装置
CN108445752B (zh) 一种自适应选择深度特征的随机权神经网络集成建模方法
CN109145516B (zh) 一种基于改进型极限学习机的模拟电路故障识别方法
CN112185104B (zh) 一种基于对抗自编码器的交通大数据修复方法
CN110443724B (zh) 一种基于深度学习的电力系统快速状态估计方法
CN107832789B (zh) 基于平均影响值数据变换的特征加权k近邻故障诊断方法
CN111539132A (zh) 一种基于卷积神经网络的动载荷时域识别方法
CN112906828A (zh) 一种基于时域编码和脉冲神经网络的图像分类方法
CN115618296A (zh) 一种基于图注意力网络的大坝监测时序数据异常检测方法
CN116403054A (zh) 基于类脑网络模型的图像优化分类方法
CN111130909B (zh) 基于自适应储备池esn的网络流量预测方法
CN113779882A (zh) 设备剩余使用寿命的预测方法、装置、设备及存储介质
JP6784357B2 (ja) 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム
CN115575125A (zh) 基于gadf-gan-avoa-cnn的轴承故障诊断方法
CN114266278A (zh) 一种基于双重注意力网络的设备剩余使用寿命预测方法
CN108631817B (zh) 一种基于时频分析和径向神经网络进行跳频信号频段预测的方法
CN116304940A (zh) 基于长短期记忆神经网络的模拟电路故障诊断方法
CN111414927A (zh) 一种海水水质评价的方法
CN114841063A (zh) 一种基于深度学习的航空发动机剩余寿命预测方法
CN114372418A (zh) 一种风电功率时空态势描述模型建立方法
Werbos How we cut prediction error in half by using a different training method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination