CN109102002A - 结合卷积神经网络和概念机递归神经网络的图像分类方法 - Google Patents

结合卷积神经网络和概念机递归神经网络的图像分类方法 Download PDF

Info

Publication number
CN109102002A
CN109102002A CN201810783905.9A CN201810783905A CN109102002A CN 109102002 A CN109102002 A CN 109102002A CN 201810783905 A CN201810783905 A CN 201810783905A CN 109102002 A CN109102002 A CN 109102002A
Authority
CN
China
Prior art keywords
neural network
image
conceptual machine
machine
reserve pool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810783905.9A
Other languages
English (en)
Inventor
薛方正
刘阳阳
李秀敏
古俊波
罗胜元
刘浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201810783905.9A priority Critical patent/CN109102002A/zh
Publication of CN109102002A publication Critical patent/CN109102002A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种结合卷积神经网络和概念机递归神经网络的图像分类方法,包括步骤:1)搭建并训练Resnet50残差神经网络;2)搭建概念机递归神经网络;3)将Resnet50残差神经网络结构和概念机递归神经网络进行融合;4)把图像的训练样本集输入融合后的神经网络;5)对于储备池状态序列x(1),…x(L),构建代价函数;6)通过训练样本的每类图像得到概念机;7)对于每一类图像计算反向概念机;8)计算出测试样本所属的图像类别。本发明不仅可利用卷积神经网络的迁移学习把已学好的模型参数迁移到新的模型来帮助新模型训练,还可以利用概念机递归神经网络进行增量式的学习识别新的图像而不必对已学习的图像进行重复学习和训练。

Description

结合卷积神经网络和概念机递归神经网络的图像分类方法
技术领域
本发明涉及图像处理技术领域,特别涉及一种图像分类方法。
背景技术
图像识别和分类是计算机视觉和图像理解领域的一个重要方向,目前,在处理图像分类问题上,卷积神经网络取得了较为明显的成果,虽然卷积神经网络具有较高的准确度,但是它在经过学习后其结构就已经建立,而且不可更改,无法在原有的基础上继续学习识别新的图像。如果需要学习识别新的图像,则必须重新初始化所有结构,这必将浪费巨大的损耗来重新训练和学习模型。
发明内容
有鉴于此,本发明的目的一种结合卷积神经网络和概念机递归神经网络的图像分类方法,利用卷积神经网络来更好的提取图像的特征,同时利用概念机递归神经网络增量学习的优势,实现不仅可利用卷积神经网络的迁移学习把已学好的模型参数迁移到新的模型来帮助新模型训练,同时也可以利用概念机递归神经网络进行增量式的学习识别新的图像而不必对已学习的图像进行重复学习和训练;以解决现有采用卷积神经网络处理图像分类问题,如果需要学习识别新的图像,则必须重新初始化所有结构,将浪费巨大的损耗来重新训练和学习模型的问题。
本发明结合卷积神经网络和概念机递归神经网络的图像分类方法,其特征在于:包括以下步骤:
1)搭建Resnet50残差神经网络,所述Resnet50残差神经网络包含卷积层、池化层和最后的全连接层,基于ImageNet图像数据集训练Resnet50残差神经网络,当训练迭代次数大于指定迭代次数时训练结束,保存Resnet50残差神经网络的卷积层参数和池化层参数作为预训练网络模型;
2)搭建概念机递归神经网络,所述概念机递归神经网络由输入神经元、储备池神经元和输出神经元组成,全部的储备池神经元构成储备池,储备池神经元之间的连接矩阵符合ESN规则,即储备池内部连接权值矩阵的谱半径β<1,以保证储备池具有回声状态属性;储备池激励函数采用双曲正切函数,网络的更新方程为:
xj(n+1)=tanh(W*xj(n)+Win*pj(n+1)+b)
其中,Win为输入层神经元与储备池神经元之间的输入权值矩阵,由标准正态分布的随机数组成;W为储备池神经元之间的连接权值矩阵,先由标准正态分布的随机数生成,再约束其谱半径β<1;b为偏置,值为1;pj(n+1)为概念机递归神经网络的输入,即Resnet50残差神经网络最后的池化层输出;Win、W和b生成之后固定不变;xj(n)是储备池上一个时刻的状态空间;n是指一个时刻,下标j是输入图像样本的顺序编号;
3)去除Resnet50残差神经网络结构的全连接层,加载预训练网络模型的卷积层参数和池化层参数,将Resnet50残差神经网络最后的池化层输出作为概念机递归神经网络的输入,即把Resnet50残差神经网络最后的池化层的输出作为概念机递归神经网络的训练样本集,从而将Resnet50残差神经网络和概念机递归神经网络融合以进行新模型的训练;
4)把图像的训练样本集输入融合后的神经网络,计算并记录由概念机递归神经网络的输入即Resnet50残差神经网络的输出pj所激发的储备池内部状态集{xj};
5)对于储备池状态序列x(1),…x(L),构建如下的代价函数:
其中C为概念机矩阵,它描述了储备池状态空间的特征;α≥0,是一个调节参数,通过调节α可找到一个使目标函数最小化的平衡点;L是指此类图像的样本数;通过随机梯度下降法得到概念机C:
C(R,α)=R(R+α-2I)-1
其中,R=XXT/L,为状态相关矩阵,X为状态集{x1},XT是X的转置;I是单位矩阵;根据Frobenius平方范数的梯度寻找合适的α:
用于衡量概念机C在指数尺度上的敏感度,当达到最大值,C对数据变化的敏感程度最大;
6)通过概念机神经网络的输入pj得到概念机Cj
7)对于每一类图像计算反向概念机 符号表示逻辑非操作,符号∨表示逻辑或操作;给定两个概念机矩阵C1、C2和一个单位矩阵I,可以进行如下逻辑操作:
逻辑非操作
逻辑与操作(∧):C1∧C2=(C1 -1+C2 -1-I)-1
逻辑或操作(∨):
8)将概念机递归神经网络的训练样本p1,p2,…都加载到储备池中,则可以对测试样本集pi进行识别,通过步骤4)得到测试样本集pi的储备池内部状态集{xi},计算图像的正向判别依据:
E+(C,X)=XTCX
同样的再根据概念机计算图像的反向判别依据:
E-(C-,X)=XTC-X
结合这两种判别依据得到一个综合判别依据:
E+-(C,C-,X)=E+(C,X)+E-(C-,X)
通过训练样本计算得到的概念机Cj和测试样本所激发的储备池状态,计算出测试样本所属的图像类别:
j*就是测试图像的所属类别,j=1,…,M;M为图像的类别数量。
本发明的有益效果:
本发明结合卷积神经网络和概念机递归神经网络的图像分类方法,不仅可利用卷积神经网络的迁移学习把已学好的模型参数迁移到新的模型来帮助新模型训练,同时也可以利用概念机递归神经网络进行增量式的学习识别新的图像而不必对已学习的图像进行重复学习和训练,解决了现有采用卷积神经网络处理图像分类问题时,如果需要学习识别新的图像,则必须重新初始化所有结构,将浪费巨大的损耗来重新训练和学习模型的问题。
附图说明
图1是概念机递归神经网络结构图,图中K input units意思为K个输入神经元,Ninterlnal units意思为N个储备池神经元,L output units意思为L个输出神经元;
图2是Resnet50残差神经网络和概念机递归神经网络融合后的神经网络结构;
图3是概念机的逻辑或操作示意图,虚线为C1,点划线为C2,双划线表示C1∨C2;双划线--点划线.-虚线..;
图4是概念机的逻辑与操作示意图,虚线为C1,点划线为C2,双划线表示C1∧C2;双划线--点划线.-虚线..;
图5是概念机的逻辑非操作示意图,虚线为C1,双划线表示C1;双划线--虚线..;
图6是本发明结合卷积神经网络和概念机递归神经网络的图像分类方法的流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步描述。
本实施例结合卷积神经网络和概念机递归神经网络的图像分类方法,其特征在于:包括以下步骤:
1)搭建Resnet50残差神经网络,所述Resnet50残差神经网络包含卷积层、池化层和最后的全连接层,基于ImageNet图像数据集训练Resnet50残差神经网络,当训练迭代次数大于指定迭代次数时训练结束,保存Resnet50残差神经网络的卷积层参数和池化层参数作为预训练网络模型;
2)搭建概念机递归神经网络,所述概念机递归神经网络由输入神经元、储备池神经元和输出神经元组成,全部的储备池神经元构成储备池,储备池神经元之间的连接矩阵符合ESN规则,即储备池内部连接权值矩阵的谱半径β<1,以保证储备池具有回声状态属性;储备池激励函数采用双曲正切函数,网络的更新方程为:
xj(n+1)=tanh(W*xj(n)+Win*pj(n+1)+b)
其中,Win为输入层神经元与储备池神经元之间的输入权值矩阵,由标准正态分布的随机数组成;W为储备池神经元之间的连接权值矩阵,先由标准正态分布的随机数生成,再约束其谱半径β<1;b为偏置,值为1;pj(n+1)为概念机递归神经网络的输入,即Resnet50残差神经网络最后的池化层输出;Win、W和b生成之后固定不变;xj(n)是储备池上一个时刻的状态空间;n是指一个时刻,下标j是输入图像样本的顺序编号;
3)去除Resnet50残差神经网络结构的全连接层,加载预训练网络模型的卷积层参数和池化层参数,将Resnet50残差神经网络最后的池化层输出作为概念机递归神经网络的输入,即把Resnet50残差神经网络最后的池化层的输出作为概念机递归神经网络的训练样本集,从而将Resnet50残差神经网络和概念机递归神经网络融合以进行新模型的训练;
4)把图像的训练样本集输入融合后的神经网络,计算并记录由概念机递归神经网络的输入即Resnet50残差神经网络的输出pj所激发的储备池内部状态集{xj};
5)对于储备池状态序列x(1),…x(L),构建如下的代价函数:
其中C为概念机矩阵,它描述了储备池状态空间的特征;α≥0,是一个调节参数,通过调节α可找到一个使目标函数最小化的平衡点;L是指此类图像的样本数;通过随机梯度下降法得到概念机C:
C(R,α)=R(R+α-2I)-1
其中,R=XXT/L,为状态相关矩阵,X为状态集{x1},XT是X的转置;I是单位矩阵;根据Frobenius平方范数的梯度寻找合适的α:
用于衡量概念机C在指数尺度上的敏感度,当达到最大值,C对数据变化的敏感程度最大;
6)通过概念机神经网络的输入pj得到概念机Cj
7)对于每一类图像计算反向概念机 符号表示逻辑非操作,符号∨表示逻辑或操作;给定两个概念机矩阵C1、C2和一个单位矩阵I,可以进行如下逻辑操作:
逻辑非操作
逻辑与操作(∧):C1∧C2=(C1 -1+C2 -1-I)-1
逻辑或操作(∨):
8)将概念机递归神经网络的训练样本p1,p2,…都加载到储备池中,则可以对测试样本集pi进行识别,通过步骤4)得到测试样本集pi的储备池内部状态集{xi},计算图像的正向判别依据:
E+(C,X)=XTCX
同样的再根据概念机计算图像的反向判别依据:
E-(C-,X)=XTC-X
结合这两种判别依据得到一个综合判别依据:
E+-(C,C-,X)=E+(C,X)+E-(C-,X)
通过训练样本计算得到的概念机Cj和测试样本所激发的储备池状态,计算出测试样本所属的图像类别:
j*就是测试图像的所属类别,j=1,…,M;M为图像的类别数量。
本实施例结合卷积神经网络和概念机递归神经网络的图像分类方法,不仅可利用卷积神经网络的迁移学习把已学好的模型参数迁移到新的模型来帮助新模型训练,并且通过步骤3、4、5、6和7计算图像的概念机矩阵可以让概念机递归神经网络增量式的学习识别新的图像,而不必对已学习的图像进行重复学习,通过步骤8可以识别已学习的图像类别。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (1)

1.结合卷积神经网络和概念机递归神经网络的图像分类方法,其特征在于:包括以下步骤:
1)搭建Resnet50残差神经网络,所述Resnet50残差神经网络包含卷积层、池化层和最后的全连接层,基于ImageNet图像数据集训练Resnet50残差神经网络,当训练迭代次数大于指定迭代次数时训练结束,保存Resnet50残差神经网络的卷积层参数和池化层参数作为预训练网络模型;
2)搭建概念机递归神经网络,所述概念机递归神经网络由输入神经元、储备池神经元和输出神经元组成,全部的储备池神经元构成储备池,储备池神经元之间的连接矩阵符合ESN规则,即储备池内部连接权值矩阵的谱半径β<1,以保证储备池具有回声状态属性;储备池激励函数采用双曲正切函数,网络的更新方程为:
xj(n+1)=tanh(W*xj(n)+Win*pj(n+1)+b)
其中,Win为输入层神经元与储备池神经元之间的输入权值矩阵,由标准正态分布的随机数组成;W为储备池神经元之间的连接权值矩阵,先由标准正态分布的随机数生成,再约束其谱半径β<1;b为偏置,值为1;pj(n+1)为概念机递归神经网络的输入,即Resnet50残差神经网络最后的池化层输出;Win、W和b生成之后固定不变;xj(n)是储备池上一个时刻的状态空间;n是指一个时刻,下标j是输入图像样本的顺序编号;
3)去除Resnet50残差神经网络结构的全连接层,加载预训练网络模型的卷积层参数和池化层参数,将Resnet50残差神经网络最后的池化层输出作为概念机递归神经网络的输入,即把Resnet50残差神经网络最后的池化层的输出作为概念机递归神经网络的训练样本集,从而将Resnet50残差神经网络和概念机递归神经网络融合以进行新模型的训练;
4)把图像的训练样本集输入融合后的神经网络,计算并记录由概念机递归神经网络的输入即Resnet50残差神经网络的输出pj所激发的储备池内部状态集{xj};
5)对于储备池状态序列x(1),…x(L),构建如下的代价函数:
其中C为概念机矩阵,它描述了储备池状态空间的特征;α≥0,是一个调节参数,通过调节α可找到一个使目标函数最小化的平衡点;L是指此类图像的样本数;通过随机梯度下降法得到概念机C:
C(R,α)=R(R+α-2I)-1
其中,R=XXT/L,为状态相关矩阵,X为状态集{x1},XT是X的转置;I是单位矩阵;根据Frobenius平方范数的梯度寻找合适的α:
用于衡量概念机C在指数尺度上的敏感度,当达到最大值,C对数据变化的敏感程度最大;
6)通过概念念机神经网络的输入pj得到概念机Cj
7)对于每一类图像计算反向概念机符号表示逻辑非操作,符号∨表示逻辑或操作;给定两个概念机矩阵C1、C2和一个单位矩阵I,可以进行如下逻辑操作:
逻辑非操作
逻辑与操作(∧):C1∧C2=(C1 -1+C2 -1-I)-1
逻辑或操作
8)将概念机递归神经网络的训练样本p1,p2,…都加载到储备池中,则可以对测试样本集pi进行识别,通过步骤4)得到测试样本集pi的储备池内部状态集{xi},计算图像的正向判别依据:
E+(C,X)=XTCX
同样的再根据概念机计算图像的反向判别依据:
E-(C-,X)=XTC-X
结合这两种判别依据得到一个综合判别依据:
E+-(C,C-,X)=E+(C,X)+E-(C-,X)
通过训练样本计算得到的概念机Cj和测试样本所激发的储备池状态,计算出测试样本所属的图像类别:
j*就是测试图像的所属类别,j=1,…,M;M为图像的类别数量。
CN201810783905.9A 2018-07-17 2018-07-17 结合卷积神经网络和概念机递归神经网络的图像分类方法 Pending CN109102002A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810783905.9A CN109102002A (zh) 2018-07-17 2018-07-17 结合卷积神经网络和概念机递归神经网络的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810783905.9A CN109102002A (zh) 2018-07-17 2018-07-17 结合卷积神经网络和概念机递归神经网络的图像分类方法

Publications (1)

Publication Number Publication Date
CN109102002A true CN109102002A (zh) 2018-12-28

Family

ID=64846553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810783905.9A Pending CN109102002A (zh) 2018-07-17 2018-07-17 结合卷积神经网络和概念机递归神经网络的图像分类方法

Country Status (1)

Country Link
CN (1) CN109102002A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948714A (zh) * 2019-03-22 2019-06-28 华南理工大学 基于残差卷积和递归神经网络的中文场景文本行识别方法
CN110096145A (zh) * 2019-04-11 2019-08-06 湖北大学 基于混合现实和神经网络的心理状态显示方法及装置
CN110119805A (zh) * 2019-05-10 2019-08-13 东南大学 基于回声状态网络分类的卷积神经网络算法
WO2020192442A1 (zh) * 2019-03-26 2020-10-01 中国科学技术大学 利用少数标注图像生成分类器的方法
WO2021027142A1 (zh) * 2019-08-14 2021-02-18 平安科技(深圳)有限公司 图片分类模型训练方法、系统和计算机设备
CN112965488A (zh) * 2021-02-05 2021-06-15 重庆大学 基于迁移学习神经网络的婴儿监控移动机器小车
CN117669649A (zh) * 2024-02-01 2024-03-08 苏州大学 深度时延储备池计算系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194437A (zh) * 2017-06-22 2017-09-22 重庆大学 基于Gist特征提取与概念机递归神经网络的图像分类方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194437A (zh) * 2017-06-22 2017-09-22 重庆大学 基于Gist特征提取与概念机递归神经网络的图像分类方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
GUANGWU QIAN 等: ""Single-label and multi-label conceptor classifiers in pre-trained neural networks"", 《NEURAL COMPUTING AND APPLICATIONS》 *
GUANGWU QIAN等: ""A simple feedforward convolutional conceptor neural network for classification"", 《APPLIED SOFT COMPUTING》 *
GUANGWU QIAN等: ""Fast Conceptor Classifier in Pre-trained Neural Networks for Visual Recognition"", 《INTERNATIONAL SYMPOSIUM ON NEURAL NETWORKS 2017: ADVANCES IN NEURAL NETWORKS》 *
HERBERT JAEGER: ""Controlling Recurrent Neural Network by Conceptor"", 《HTTPS://ARXIV.ORG/PDF/1403.3369.PDF》 *
YUHUANG HU等: ""Classify Images with Conceptor Network"", 《HTTPS://PDFS.SEMANTICSCHOLAR.ORG/C50D/E2C23649E8874D3F7BB4D0125EE94E858631.PDF》 *
钟玲: ""回响状态网络及概念机网络的储备池模型优化研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
钱光武等: ""基于概念器的深度神经网络模型"", 《中国科学: 信息科学》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948714A (zh) * 2019-03-22 2019-06-28 华南理工大学 基于残差卷积和递归神经网络的中文场景文本行识别方法
CN109948714B (zh) * 2019-03-22 2022-11-29 华南理工大学 基于残差卷积和递归神经网络的中文场景文本行识别方法
WO2020192442A1 (zh) * 2019-03-26 2020-10-01 中国科学技术大学 利用少数标注图像生成分类器的方法
CN110096145A (zh) * 2019-04-11 2019-08-06 湖北大学 基于混合现实和神经网络的心理状态显示方法及装置
CN110119805A (zh) * 2019-05-10 2019-08-13 东南大学 基于回声状态网络分类的卷积神经网络算法
CN110119805B (zh) * 2019-05-10 2022-06-21 东南大学 基于回声状态网络分类的卷积神经网络算法
WO2021027142A1 (zh) * 2019-08-14 2021-02-18 平安科技(深圳)有限公司 图片分类模型训练方法、系统和计算机设备
CN112965488A (zh) * 2021-02-05 2021-06-15 重庆大学 基于迁移学习神经网络的婴儿监控移动机器小车
CN112965488B (zh) * 2021-02-05 2022-06-03 重庆大学 基于迁移学习神经网络的婴儿监控移动机器小车
CN117669649A (zh) * 2024-02-01 2024-03-08 苏州大学 深度时延储备池计算系统
CN117669649B (zh) * 2024-02-01 2024-04-05 苏州大学 深度时延储备池计算系统

Similar Documents

Publication Publication Date Title
CN109102002A (zh) 结合卷积神经网络和概念机递归神经网络的图像分类方法
CN107194433B (zh) 一种基于深度自编码网络的雷达一维距离像目标识别方法
CN108095716B (zh) 一种基于置信规则库和深度神经网络的心电信号检测方法
CN107909206B (zh) 一种基于深层结构循环神经网络的pm2.5预测方法
CN108829818A (zh) 一种文本分类方法
CN108595602A (zh) 基于浅层模型与深度模型结合的问句文本分类方法
CN109086799A (zh) 一种基于改进卷积神经网络模型AlexNet的作物叶片病害识别方法
CN105487526B (zh) 一种Fast RVM污水处理故障诊断方法
CN110442684A (zh) 一种基于文本内容的类案推荐方法
CN108051660A (zh) 一种变压器故障组合诊断模型建立方法及诊断方法
CN106682694A (zh) 一种基于深度学习的敏感图像识别方法
CN109300111A (zh) 一种基于深度学习的染色体识别方法
CN105975573A (zh) 一种基于knn的文本分类方法
CN108021947A (zh) 一种基于视觉的分层极限学习机目标识别方法
CN112070128A (zh) 一种基于深度学习的变压器故障诊断方法
CN111046961B (zh) 基于双向长短时记忆单元和胶囊网络的故障分类方法
CN103793694B (zh) 一种基于多特征空间稀疏分类器的人脸识别方法
CN108875772A (zh) 一种基于堆叠稀疏高斯伯努利受限玻尔兹曼机和强化学习的故障分类模型及方法
CN113255366B (zh) 一种基于异构图神经网络的方面级文本情感分析方法
CN106874963A (zh) 一种基于大数据技术的配电网故障诊断方法及系统
CN111649779B (zh) 基于密集神经网络的油井含油率和总流速测量方法及应用
CN107798431A (zh) 一种基于改进Elman神经网络的中长期径流预报方法
CN113240113A (zh) 一种增强网络预测鲁棒性的方法
Akut et al. NeuroEvolution: Using genetic algorithm for optimal design of deep learning models
CN117390407B (zh) 变电站设备的故障识别方法、系统、介质和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181228