CN116403054A - 基于类脑网络模型的图像优化分类方法 - Google Patents
基于类脑网络模型的图像优化分类方法 Download PDFInfo
- Publication number
- CN116403054A CN116403054A CN202310553246.0A CN202310553246A CN116403054A CN 116403054 A CN116403054 A CN 116403054A CN 202310553246 A CN202310553246 A CN 202310553246A CN 116403054 A CN116403054 A CN 116403054A
- Authority
- CN
- China
- Prior art keywords
- layer
- neuron
- brain
- output
- neurons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000005457 optimization Methods 0.000 title claims abstract description 10
- 210000002569 neuron Anatomy 0.000 claims abstract description 86
- 230000005764 inhibitory process Effects 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 23
- 230000004913 activation Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 8
- 239000012528 membrane Substances 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 239000003990 capacitor Substances 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000002238 attenuated effect Effects 0.000 claims description 2
- 230000005284 excitation Effects 0.000 claims description 2
- 230000002401 inhibitory effect Effects 0.000 claims 1
- 230000000284 resting effect Effects 0.000 claims 1
- 238000013461 design Methods 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 5
- 210000000857 visual cortex Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012421 spiking Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000012098 association analyses Methods 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000023886 lateral inhibition Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Image Analysis (AREA)
Abstract
一种基于类脑网络模型的图像优化分类方法,在离线阶段构造包含特征提取部分、分类部分、脉冲神经元模型、使用泊松编码的编码层、改进的反馈连接以及改进的抑制连接的类脑网络模型并进行训练;在在线阶段采用训练后的类脑网络模型进行图像优化分类。本发明根据生物神经元的电位变化的工作原理,基于生物神经元的带泄漏整合发放模型(LIF)的电学和数学特性设计脉冲神经元模型,并使用脉冲神经元搭建实现。
Description
技术领域
本发明涉及的是一种神经网络应用领域的技术,具体是一种基于脉冲神经元和大脑视皮层的类脑网络模型的图像优化分类方法。
背景技术
类脑网络的工作模式更符合大脑认知能力,自主学习、关联分析能力强,鲁棒性较强,计算资源消耗较少,逻辑分析和推理能力较强,具备认知推理能力,时序相关性好,更符合现实世界的情景,可能解决通用场景问题,实现强人工智能和通用智能。然而,类脑网络的研究十分缓慢,受限于生物神经元和神经系统的复杂结构,现有的人工智能模型中使用的计算不能模拟生物神经元的工作原理。
发明内容
本发明针对现有技术图像分类工作的鲁棒性较低的问题,提出一种基于类脑网络模型的图像优化分类方法,根据生物神经元的电位变化的工作原理,基于生物神经元的带泄漏整合发放模型(LIF)的电学和数学特性设计脉冲神经元模型,并使用脉冲神经元搭建实现。
本发明是通过以下技术方案实现的:
本发明涉及一种基于类脑网络模型的图像优化分类方法,在离线阶段构造包含特征提取部分、分类部分、脉冲神经元模型、使用泊松编码的编码层、改进的反馈连接以及改进的抑制连接的类脑网络模型并进行训练;在在线阶段采用训练后的类脑网络模型进行图像优化分类。
所述的类脑网络模型包括:一个泊松编码层、五个二维卷积层、七个激活函数层、三个最大值池化层、一个一维化层、两个全连接层和一个softmax层,其中:泊松编码层构成输入数据预处理部分;依次相连的第一二维卷积层、第一激活函数层、第一最大值池化层、第二二维卷积层、第二激活函数层、第二最大值池化层、第三二维卷积层、第三激活函数层、第四二维卷积层、第三激活函数层、第五二维卷积层、第四激活函数层和第三最大值池化层构成特征提取部分;依次相连的一维化层、第一全连接层、第五激活函数层、第二全连接层、第六激活函数层和softmax连接层构成分类部分;第二最大值池化层的输出端和第三最大值池化层的输出端均连接至第一卷积层的输入端,以及第三最大值池化层的输出端与第二卷积层的输入端相连并添加转置卷积计算从而构成改进的反馈连接;
所述的七个激活函数层中均设有脉冲神经元模型,该模型使用带有电阻和电容的RC电路模拟生物神经元的电位变化,具体为:其中:Vm≥0为神经元的膜电位,Rm>0为神经元的电阻值,Cm>0为电路中电容器的电容值,I>0为外部输入的信号大小,时间t=0,1,2,3,...。当膜电位Vm大于电位阈值Vth时,神经元发出一个脉冲信号δ(t)=1并恢复静息电位。当t=0时刻输入值的大小为I0,在之后的时间段内没有其他输入,则神经元的值会根据输入信号的值以及设定的时间常数τm=RmCm执行指数衰减/> 当有其他输入的时候,神经元的电位值会首先执行衰减,再累加新的输入信号;当神经元的电位值Vm大于阈值Vth时,神经元发出一个脉冲信号并恢复静息电位,其中静息电位Vrest=0。
所述的脉冲神经元模型中的神经元的输出数据受计算输出和来自其他神经元的抑制强度的共同影响,具体为:其中:yij为输出矩阵中(i,j)位置的输出值,xij为(i,j)位置的神经元对分类结果的贡献,/>为(i,j)位置的神经元受到的侧抑制强度。侧抑制强度具体为:/>其中:η为可学习的随机初始化的参数,uv代表输出矩阵中在(i,j)位置相邻的所有的位置,/>为位置(u,v)到位置(i,j)的欧式距离,δ(·)为冲激函数,xuv为位置(u,v)的神经元对分类结果的贡献。
所述的改进的抑制连接具体包括:
ii)计算每个神经元受到的抑制强度: 其中:/>为(i,j)位置的神经元受到的抑制强度,a和b是可学习的随机初始化的参数,e是自然对数的底数,/>为求平均值,uv代表输出矩阵中除了(i,j)以外所有的位置,duv=|u-i|+|v-j|为(u,v)到(i,j)之间的距离,sinh(·)为双曲正弦函数,δ(·)为冲激函数。每个神经元受到同层所有神经元的抑制,神经元的距离越近,抑制强度越高。
所述的输入数据预处理是指:使用泊松过程对输入数据进行编码,具体为: 其中:P(X=k)为X=k事件的概率,X为输出的脉冲数量,k为非负整数,λ为非负整数,是与输入数据的大小成正比的激发频率,e为自然对数的底数。
所述的反馈连接是指:将类脑网络模型第三个最大值池化层的输出结果连接到第一个卷积层之前,具体为:XC1=YPC+YMP3,其中:XC1为第一个二维卷积层接受的输入数据,YPC为泊松编码层的输出数据,YMP3为第三个最大值池化层的输出数据。
所述的转置卷积计算具体为:XC1=YPC+TC(YMP2)+TC(YMP3)和XC2=YC1+TC(YMP3),其中:XC1为第一个二维卷积层接受的输入数据,YPC为泊松编码层的输出数据,YMP2为第二个最大值池化层的输出数据,YMP3为第三个最大值池化层的输出数据,XC2为第二个二维卷积层接受的输入数据,YC1为第一个二维卷积层的输出数据,TC(·)代表进行转置卷积计算。
技术效果
本发明通过基于大脑视皮层结构设计的改进的反馈连接结构和改进的抑制连接结构,构造得到的类脑网络模型,在Brain-Score工具评测得分相较于其他若干种常见的神经网络模型有一定的提高。使用公开的数据集对本发明的类脑网络模型进行训练,训练结束后使用公开的对抗攻击算法对本发明的类脑网络模型进行攻击,本发明的类脑网络模型表现出更高的鲁棒性。
附图说明
图1为本发明流程图;
图2为改进的反馈连接示意图;
图3为改进的抑制连接示意图;
图4和图5为实施例效果示意图。
具体实施方式
如图1所示,为本实施例涉及一种基于脉冲神经元模型和大脑视皮层结构的类脑网络模型的图像优化分类方法,使用PyTorch、SpikingJelly和NumPy等工具包实现。采用了CIFAR-10数据集,具体步骤包括:
步骤一,搭建包含特征提取部分和分类部分的用于图像分类的AlexNet神经网络。
步骤二,使用脉冲神经元模型替换步骤一中AlexNet神经网络中的神经元。使用SpikingJelly内置的spikingjelly.activation_based.neuron中的IFNode神经元模型作为脉冲神经元模型,用该神经元模型替换步骤一中搭建的AlexNet神经网络中激活函数层的神经元模型。
步骤三,在AlexNet网络的最前端添加使用泊松编码的编码层。使用SpikingJelly内置的spikingjelly.activation_based.encoding中的PoissonEncoder作为编码层,添加到AlexNet网络的最前端,用于根据输入的图像产生对应的脉冲序列。
步骤四,在AlexNet网络中添加改进的反馈连接。将第二个最大值池化层的输出结果YMP2和第三个最大值池化层的输出结果YMP2连接到第一个卷积层之前,将第三个最大值池化层的输出结果YMP3连接到第二个卷积层之前,并添加转置卷积计算TC(·)。如图2所示。
步骤五,在AlexNet网络中添加改进的抑制连接。首先计算每层计算输出数据的平均值μ和方差σ,据此计算每个神经元受到的抑制强度最后根据神经元的计算输出数据和受到的抑制强度/>计算出神经元的最终输出值yij。如图3所示。
步骤六,对类脑网络模型进行图像分类工作的训练:首先设定参数,设定学习率lr=0.001,批训练大小batch_size=32,损失函数使用交叉熵损失,优化器使用SGD优化,训练的最大轮数max_epochs=100。使用CIFAR-10数据集,对类脑网络模型进行图像分类工作的训练,训练完成后得到训练后的类脑网络模型。
经过具体实际实验,为反映提出的搭建类脑网络网络模型的方法的效果,与常见的几种人工智能模型进行对比,选取AlexNet、VGG-11、VGG-19、ResNet-18、DenseNet和SqueezeNet模型,并分别进行与步骤六所述的相同的训练过程,最后使用Brain-Score评估它们的神经元激活相似度。模型的得分越高,说明模型的类脑度越高,得分结果如图4所示。
为反映搭建的类脑网络模型在图像分类工作上的鲁棒性,将搭建的类脑网络模型和AlexNet进行与步骤六相同的训练,再选取常见的FGSM、BIM、PGD和CW2对抗攻击算法分别对两种模型进行对抗攻击,得到对应的对抗样本。分别计算类脑网络模型和AlexNet模型在不同对抗攻击算法的对抗样本上的图像分类准确率,与训练时的图像分类准确率做对比,计算出两种模型图像分类准确率的下降幅度,下降幅度越小,说明模型的鲁棒性越好,结果如图5所示。
与现有技术相比,本发明通过基于脉冲神经元模型和大脑视皮层结构搭建类脑网络模型能够取得比主流人工智能模型更高的得分,展现出对大脑更高的相似度。在CIFAR-10的图像分类工作上,模型在面对对抗攻击算法的攻击时,展现出了更好的鲁棒性。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (8)
1.一种基于脉冲神经元模型的类脑智能模型的搭建方法,其特征在于,在离线阶段构造包含特征提取部分、分类部分、脉冲神经元模型、使用泊松编码的编码层、改进的反馈连接以及改进的抑制连接的类脑网络模型并进行训练;在在线阶段采用训练后的类脑网络模型进行图像优化分类;
所述的类脑网络模型包括:一个泊松编码层、五个二维卷积层、七个激活函数层、三个最大值池化层、一个一维化层、两个全连接层和一个softmax层,其中:泊松编码层构成输入数据预处理部分;依次相连的第一二维卷积层、第一激活函数层、第一最大值池化层、第二二维卷积层、第二激活函数层、第二最大值池化层、第三二维卷积层、第三激活函数层、第四二维卷积层、第三激活函数层、第五二维卷积层、第四激活函数层和第三最大值池化层构成特征提取部分;依次相连的一维化层、第一全连接层、第五激活函数层、第二全连接层、第六激活函数层和softmax连接层构成分类部分;第二最大值池化层的输出端和第三最大值池化层的输出端均连接至第一卷积层的输入端,以及第三最大值池化层的输出端与第二卷积层的输入端相连并添加转置卷积计算从而构成改进的反馈连接。
2.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的七个激活函数层中均设有脉冲神经元模型,该模型使用带有电阻和电容的RC电路模拟生物神经元的电位变化,具体为:其中:Vm≥0为神经元的膜电位,Rm>0为神经元的电阻值,Cm>0为电路中电容器的电容值,I>0为外部输入的信号大小,时间t=0,1,2,3,...;当膜电位Vm大于电位阈值Vth时,神经元发出一个脉冲信号δt=1并恢复静息电位;当t=0时刻输入值的大小为I0,在之后的时间段内没有其他输入,则神经元的值会根据输入信号的值以及设定的时间常数τm=RmCm执行指数衰减/> 当有其他输入的时候,神经元的电位值会首先执行衰减,再累加新的输入信号;当神经元的电位值Vm大于阈值Vth时,神经元发出一个脉冲信号并恢复静息电位,其中静息电位Vrest=0。
4.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的改进的抑制连接具体包括:
ii)计算每个神经元受到的抑制强度:其中:/>为(i,j)位置的神经元受到的抑制强度,a和b是可学习的随机初始化的参数,e是自然对数的底数,/>为求平均值,uv代表输出矩阵中除了(i,j)以外所有的位置,duv=|u-i|+|v-j|为(u,v)到(i,j)之间的距离,sinh(·)为双曲正弦函数,δ(·)为冲激函数;每个神经元受到同层所有神经元的抑制,神经元的距离越近,抑制强度越高;
6.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的反馈连接是指:将类脑网络模型第三个最大值池化层的输出结果连接到第一个卷积层之前,具体为:XC1=YPC+YMP3,其中:XC1为第一个二维卷积层接受的输入数据,YPC为泊松编码层的输出数据,YMP3为第三个最大值池化层的输出数据。
7.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的转置卷积计算具体为:XC1=YPC+TC(YMP2)+TC(YMP3)和XC2=YC1+TC(YMP3),其中:XC1为第一个二维卷积层接受的输入数据,YPC为泊松编码层的输出数据,YMP2为第二个最大值池化层的输出数据,YMP3为第三个最大值池化层的输出数据,XC2为第二个二维卷积层接受的输入数据,YC1为第一个二维卷积层的输出数据,TC(·)代表进行转置卷积计算。
8.根据权利要求1所述的基于脉冲神经元模型的类脑智能模型的搭建方法,其特征是,所述的训练是指:首先设定参数,设定学习率lr=0.001,批训练大小batch_size=32,损失函数使用交叉熵损失,优化器使用SGD优化,训练的最大轮数max_epochs=100;使用CIFAR-10数据集,对类脑网络模型进行图像分类工作的训练,训练完成后得到训练后的类脑网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310553246.0A CN116403054A (zh) | 2023-05-17 | 2023-05-17 | 基于类脑网络模型的图像优化分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310553246.0A CN116403054A (zh) | 2023-05-17 | 2023-05-17 | 基于类脑网络模型的图像优化分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116403054A true CN116403054A (zh) | 2023-07-07 |
Family
ID=87010691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310553246.0A Pending CN116403054A (zh) | 2023-05-17 | 2023-05-17 | 基于类脑网络模型的图像优化分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116403054A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116797851A (zh) * | 2023-07-28 | 2023-09-22 | 中国科学院自动化研究所 | 图像分类模型的类脑连续学习方法、图像分类方法和装置 |
-
2023
- 2023-05-17 CN CN202310553246.0A patent/CN116403054A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116797851A (zh) * | 2023-07-28 | 2023-09-22 | 中国科学院自动化研究所 | 图像分类模型的类脑连续学习方法、图像分类方法和装置 |
CN116797851B (zh) * | 2023-07-28 | 2024-02-13 | 中国科学院自动化研究所 | 图像分类模型的类脑连续学习方法、图像分类方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109597043B (zh) | 基于量子粒子群卷积神经网络的雷达信号识别方法 | |
CN110048827B (zh) | 一种基于深度学习卷积神经网络的类模板攻击方法 | |
CN108764540B (zh) | 基于并行lstm串联dnn的供水管网压力预测方法 | |
WO2019091020A1 (zh) | 权重数据存储方法和基于该方法的神经网络处理器 | |
CN115018021B (zh) | 基于图结构与异常注意力机制的机房异常检测方法及装置 | |
CN108445752B (zh) | 一种自适应选择深度特征的随机权神经网络集成建模方法 | |
CN109145516B (zh) | 一种基于改进型极限学习机的模拟电路故障识别方法 | |
CN112185104B (zh) | 一种基于对抗自编码器的交通大数据修复方法 | |
CN110443724B (zh) | 一种基于深度学习的电力系统快速状态估计方法 | |
CN107832789B (zh) | 基于平均影响值数据变换的特征加权k近邻故障诊断方法 | |
CN111539132A (zh) | 一种基于卷积神经网络的动载荷时域识别方法 | |
CN112906828A (zh) | 一种基于时域编码和脉冲神经网络的图像分类方法 | |
CN115618296A (zh) | 一种基于图注意力网络的大坝监测时序数据异常检测方法 | |
CN116403054A (zh) | 基于类脑网络模型的图像优化分类方法 | |
CN111130909B (zh) | 基于自适应储备池esn的网络流量预测方法 | |
CN113779882A (zh) | 设备剩余使用寿命的预测方法、装置、设备及存储介质 | |
JP6784357B2 (ja) | 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム | |
CN115575125A (zh) | 基于gadf-gan-avoa-cnn的轴承故障诊断方法 | |
CN114266278A (zh) | 一种基于双重注意力网络的设备剩余使用寿命预测方法 | |
CN108631817B (zh) | 一种基于时频分析和径向神经网络进行跳频信号频段预测的方法 | |
CN116304940A (zh) | 基于长短期记忆神经网络的模拟电路故障诊断方法 | |
CN111414927A (zh) | 一种海水水质评价的方法 | |
CN114841063A (zh) | 一种基于深度学习的航空发动机剩余寿命预测方法 | |
CN114372418A (zh) | 一种风电功率时空态势描述模型建立方法 | |
Werbos | How we cut prediction error in half by using a different training method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |