CN106682704B - 一种融合上下文信息的病害图像识别方法 - Google Patents
一种融合上下文信息的病害图像识别方法 Download PDFInfo
- Publication number
- CN106682704B CN106682704B CN201710041270.0A CN201710041270A CN106682704B CN 106682704 B CN106682704 B CN 106682704B CN 201710041270 A CN201710041270 A CN 201710041270A CN 106682704 B CN106682704 B CN 106682704B
- Authority
- CN
- China
- Prior art keywords
- convolutional neural
- neural networks
- disease
- training
- mixing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
Abstract
本发明涉及一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,与现有技术相比解决了病害图像识别率低、鲁棒性差的缺陷。本发明包括以下步骤:训练图像的收集和预处理;构造并训练混合卷积神经网络模型;待测图像的收集和预处理;将测试样本输入训练完成后的混合卷积神经网络模型中,进行病害图像的自动识别,识别出待测病害图像的类别。本发明将病害图像的图片信息和上下文信息相结合进行混合卷积神经网络的构建,从而提高了病害识别的准确率,增强了病害识别算法的鲁棒性。
Description
技术领域
本发明涉及图像识别技术领域,具体来说是一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法。
背景技术
病害一直是困扰农作物生长的基本问题,由于植物病害症状最初很模糊,加大了人工目测的难度。现行的病害分类、识别工作主要是依靠少数植保专家和农技人员来完成的,但病害种类繁多,而每一位植保专家穷其所能也只能识别部分病害。
病害图像的识别由于其植物种类的多样性、不同种类植物病害的多变性,使得传统的自动识别方法识别率不高、鲁棒性较差,且只能存在于实验阶段。因此,如何能够提高病害图像识别的准确性已经成为急需解决的技术问题。
发明内容
本发明的目的是为了解决现有技术中病害图像识别率低、鲁棒性差的缺陷,提供一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法来解决上述问题。
为了实现上述目的,本发明的技术方案如下:
一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,包括以下步骤:
训练图像的收集和预处理,收集若干幅图像作为训练图像,收集图像的焦点集中在病害症状上,将所有训练图像的大小归一化为256×256像素,得到若干个训练样本;
构造并训练混合卷积神经网络模型,分别获取病害图像特征和病害图像的上下文信息的特征,将病害图像特征与病害图像的上下文信息特征相融合,构建混合卷积神经网络模型,并对构建后的混合卷积神经网络模型进行训练;
待测图像的收集和预处理,获取待测图像并将待测图像的大小归一化为 256×256像素,得到测试样本;
将测试样本输入训练完成后的混合卷积神经网络模型中,进行病害图像的自动识别,识别出待测病害图像的类别。
所述的构造并训练混合卷积神经网络模型包括以下步骤:
构建混合卷积神经网络模型,将归一化后的训练样本裁剪成227×227像素大小作为AlexNet网络模型的输入,输出病害图像特征向量,在AlexNet网络模型的基础上添加前馈全连接子网,将图片的上下文信息作为此前馈全连接子网的输入,输出病害图像的上下文信息特征向量,将病害图像特征向量与上下文信息特征向量融合之后再进行全连接,通过softmax分类器输出病害图像所属的类别概率;
混合卷积神经网络模型的训练,使用imagenet图像集来初步训练构造的混合卷积神经网络模型,将初步训练后模型中的所有或者部分参数值用作最终模型参数的初始值,使用收集的若干病害训练图像对已初步训练过的混合卷积神经网络模型进行微调,进一步优化网络模型的参数,完成对混合卷积神经网络模型的最终训练。
所述的构建混合卷积神经网络模型包括以下步骤:
采用基于AlexNet模型的8层结构构造混合卷积神经网络FCNN,其中: AlexNet模型的前5层为卷积层、后3层为全连接层,
将归一化后截取的227×227像素大小的的训练样本输入混合卷积神经网络的第1层卷积层,经过从第2层至第5层卷积滤波后从混合卷积神经网络的第6层全连接层输出病害图像特征向量;
前馈全连接子网的设定,
将前馈全连接子网设定为两层全连接层,设病害作物所属类别数为n,将病害作物所属类别作为上下文信息,则输入向量为n维向量,将n维向量作为前馈全连接子网的两层全连接层的输入,输出上下文信息特征向量;
将病害图像特征向量和上下文信息特征向量直接连接成混合向量;
将混合向量作为混合卷积神经网络的第7层的输入,混合卷积神经网络的第8层的输出经过softmax分类器,得到图像所属的病害类别的概率。
所述的混合卷积神经网络模型的训练包括以下步骤:
针对混合卷积神经网络模型基于Caffe框架进行整个网络模型的训练,使用imagenet图像集来初步训练构造的混合卷积神经网络模型;
将初步训练后的模型中的所有或者部分参数值用作最终模型参数的初始值,再使用收集的若干病害训练图像对已初步训练过的混合卷积神经网络进行微调,进一步优化网络模型的参数,完成对混合卷积神经网络模型的最终训练。
针对混合卷积神经网络模型基于Caffe框架进行整个网络模型的训练包括以下步骤:
前向传播阶段,从imagenet图像集中取出一个样本(Xi,Oi),将图像Xi输入混合卷积神经网络,经过逐级的变换,传送到输出层,计算相应的实际输出 Oi,其计算公式如下:
Oi=Fn(Fn-1(…F2(F1(Xiw(1)+b(1))w(2)+b(2))…)w(n)+b(n)
其中,Fn()表示第n层的激活函数,w(n)表示第n层的权值,b(n)表示第n的偏置;
后向传播阶段,计算实际输出Oi和理想输出Yi的差,然后按照极小化误差的方法反向传播调整权矩阵,其输出层的误差计算公式如下:
Ei=1/2∑k(Oik-Tik)2,
其中,Ei、Oik、Tik分别是第i个样本的误差、第i个样本输出层第k个神经元的输出、第i个样本输出层第k个神经元的期望输出。
有益效果
本发明的一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,与现有技术相比将病害图像的图片信息和上下文信息相结合进行混合卷积神经网络的构建,从而提高了病害识别的准确率,增强了病害识别算法的鲁棒性。
附图说明
图1为本发明的方法顺序图;
图2a为使用收集的病害图片训练网络FusionNet的第一层网络的权重滤波器展示图;
图2b为使用imagenet图像集训练网络FusionNet的第一层网络的权重滤波器展示图;
图2c为使用imagenet图像集初步训练后再使用收集的病害图片训练网络FusionNet即fine-tune模式的第一层网络的权重滤波器展示图。
具体实施方式
为使对本发明的结构特征及所达成的功效有更进一步的了解与认识,用以较佳的实施例及附图配合详细的说明,说明如下:
如图1所示,本发明所述的一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,包括以下步骤:
第一步,训练图像的收集和预处理。收集若干幅图像作为训练图像,为了满足实际的病害识别环境的需要,所有的训练病害图像样本均在田间收集。收集图像的焦点集中在病害症状上,将所有训练图像的大小归一化为256×256 像素,得到若干个训练样本。
第二步,构造并训练混合卷积神经网络模型。分别获取病害图像特征和病害图像的上下文信息的特征,将病害图像特征与病害图像的上下文信息特征相融合,构建混合卷积神经网络模型,并对构建后的混合卷积神经网络模型进行训练。
(1)构建混合卷积神经网络(Fusion Convolutional Neural Network,FCNN) 模型,FCNN网络模型是一个非常灵活的网络结构,它可以合并任何形式的先验信息,并且子网不一定非是全连接的网络,其可以是基于我们的先验信息的各种形式的连接,如CNN或者RNN等。
在此,将归一化后的训练样本裁剪成227×227像素大小作为AlexNet网络模型的输入,输出病害图像特征向量,在AlexNet网络模型的基础上添加前馈全连接子网,将图片的上下文信息作为此前馈全连接子网的输入,输出病害图像的上下文信息特征向量,将病害图像特征向量与上下文信息特征向量融合之后再进行全连接,通过softmax分类器输出病害图像所属的类别概率。其具体步骤如下:
A、采用基于AlexNet模型的8层结构构造混合卷积神经网络FCNN,其中:AlexNet模型自身为8层结构,在8层结构中前5层为卷积层、后3层为全连接层。以第一个卷积层(第1层)为例,卷积滤波器的大小是11*11,卷积步幅为4,由于图像是RGB彩色图像,本层共有3*96个卷积滤波器,本层的输出则是96个55*55大小的彩色图片。在第一个卷基层,卷积滤波后,还接有线性修正单元ReLUs操作和最大池化max-pooling操作。第6、7和8层是全连接层,相当于在五层卷积层的基础上再加上一个三层的全连接神经网络分类器。以第6层的全连接层为例,本层的神经元个数为4096个。
将归一化后截取的227×227像素大小的的训练样本输入混合卷积神经网络的第1层卷积层,此时输入图片都将被剪裁成227×227像素大小。经过从第 2层至第5层卷积滤波后从混合卷积神经网络的第6层全连接层输出病害图像特征向量。病害图像特征向量作为特征1,传统的构建方法通过输入图片直接从第8层获得相关概率参数,并进行训练。但在实际应用中,病害图片存在多样性特点,而针对于不同的植物又可能存在相似的病害状态,但不同植物在相似的病害状态表现下所产生的病害则不相同。因此,只通过病害图像的输入来判断病害种类,难以应用于实际。
B、前馈全连接子网的设定。前馈全连接子网用于在混合卷积神经网络中融合病害图像一些先验(上下文)信息,例如图像所属的作物类别、病害发生的天气、空间或者时间等信息,利用综合信息进行病害种类的判断,从而提高病害识别的准确率,增强病害识别算法的鲁棒性。
将前馈全连接子网设定为两层全连接层,每一层的神经元个数分别是32 和16。在此选用病害判断较常用的作物类别作为特征2,与特征1相结合进行综合判断,当然,还可以选用病害发生的天气、地理位置或时间等其他辅助判断指标。设病害作物所属类别数为n,将病害作物所属类别作为上下文信息,则输入向量为n维向量,则在n维向量中,对应作物名称那一维是1,其余都是0。将n维向量作为前馈全连接子网的两层全连接层的输入,输出上下文信息特征向量。
C、将病害图像特征向量和上下文信息特征向量直接利用向量连接传统方法连接成混合向量,从而融合了图像的一些先验信息。
D、将混合向量作为混合卷积神经网络的第7层的输入,即在混合卷积神经网络的第6层就把图像和上下文的先验信息的不同特征组成一个混合(特征) 向量。第8个全连接的神经元个数为78个,相当于训练目标的78个病害类别,混合卷积神经网络的第8层的输出经过softmax分类器,得到图像所属的病害类别的概率。
(2)混合卷积神经网络模型的训练。使用imagenet图像集来初步训练构造的混合卷积神经网络模型,将初步训练后模型中的所有或者部分参数值用作最终模型参数的初始值,使用收集的若干病害训练图像对已初步训练过的混合卷积神经网络模型进行微调,进一步优化网络模型的参数,完成对混合卷积神经网络模型的最终训练。其具体步骤如下:
A、针对混合卷积神经网络模型基于Caffe框架进行整个网络模型的训练,使用imagenet图像集来初步训练构造的混合卷积神经网络模型。过程主要包括前向传播阶段和后向传播阶段。
前向传播阶段。从imagenet图像集中取出一个样本(Xi,Oi),将图像Xi输入混合卷积神经网络,经过逐级的变换,传送到输出层,计算相应的实际输出 Oi,其计算公式如下:
Oi=Fn(Fn-1(…F2(F1(Xiw(1)+b(1))w(2)+b(2))…)w(n)+b(n)
其中,Fn()表示第n层的激活函数,w(n)表示第n层的权值,b(n)表示第n的偏置。
后向传播阶段。计算实际输出Oi和理想输出Yi的差,然后按照极小化误差的方法反向传播调整权矩阵,其输出层的误差计算公式如下:
Ei=1/2∑k(Oik-Tik)2,
其中,Ei、Oik、Tik分别是第i个样本的误差、第i个样本输出层第k个神经元的输出、第i个样本输出层第k个神经元的期望输出。
B、将初步训练后的模型中的所有或者部分参数值用作最终模型参数的初始值,再使用收集的若干病害训练图像对已初步训练过的混合卷积神经网络进行微调,进一步优化网络模型的参数,完成对混合卷积神经网络模型的最终训练。通过采用fine-tune微调的方法,即使用大量和病害图像弱相关的数据来训练基本网络模型,之后再使用病害数据对网络模型进行参数调优,保证了在没有大量训练图像的前提下也可以建立优秀的深度神经网络模型,
第三步,待测图像的收集和预处理。获取待测图像并将待测图像的大小归一化为256×256像素,得到测试样本。
第四步,将测试样本输入训练完成后的混合卷积神经网络模型中,进行病害图像的自动识别,识别出待测病害图像的类别。
表1不同方法识别率对比表
方法 | 识别率 |
去除复杂背景+纹理特征+SVM | 64.5% |
AlexNet(收集的病害图片训练网络) | 72.6% |
AlexNet(imagenet图像集初步训练网络)+Fine-tune(收集的病害图片微调网络) | 87.0% |
FusionNet(收集的病害图片训练网络) | 77.5% |
本发明所用方法 | 87.9% |
表1为其他方法和本发明方法的识别率的对比表,由表1可以发现,本发明的方法相比现有一些技术的方法在识别的效果上更好。
如图2a、图2b和图2c所示,图2a、图2b和图2c分别为使用FusionNet (使用收集的病害图片训练网络)、FusionNet(使用imagenet图像集训练网络)和本发明方法(先使用imagenet图像集初步训练后再使用收集的病害图片训练网络即fine-tune模式)的第一层网络的权重滤波器。由此可见,由 imagenet初步训练的模型已经获得了一个良好的权重滤波器,平滑且有规则性,权重的一部分负责提取高频灰度特征,而另一部分负责提取形状特征。相比之下,只用我们收集的病害数据训练的模型,由于没有足够的数据,滤波器没有得到很好的训练,滤波器模糊不清晰且不规则。本文方法的基于 FusionNet的fine-tune微调模型保留了ImageNet训练模型的优点的同时,融合病害图像一些先验信息进行病害种类的判断,因此获得极好的精度是合理的。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。
Claims (4)
1.一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,其特征在于,包括以下步骤:
11)训练图像的收集和预处理,收集若干幅图像作为训练图像,收集图像的焦点集中在病害症状上,将所有训练图像的大小归一化为256×256像素,得到若干个训练样本;
12)构造并训练混合卷积神经网络模型,分别获取病害图像特征和病害图像的上下文信息的特征,将病害图像特征与病害图像的上下文信息特征相融合,构建混合卷积神经网络模型,并对构建后的混合卷积神经网络模型进行训练;所述的构造并训练混合卷积神经网络模型包括以下步骤:
121)构建混合卷积神经网络模型,将归一化后的训练样本裁剪成227×227像素大小作为AlexNet网络模型的输入,输出病害图像特征向量,在AlexNet网络模型的基础上添加前馈全连接子网,将图片的上下文信息作为此前馈全连接子网的输入,输出病害图像的上下文信息特征向量,将病害图像特征向量与上下文信息特征向量融合之后再进行全连接,通过softmax分类器输出病害图像所属的类别概率;
122)混合卷积神经网络模型的训练,使用imagenet图像集来初步训练构造的混合卷积神经网络模型,将初步训练后模型中的所有或者部分参数值用作最终模型参数的初始值,使用收集的若干病害训练图像对已初步训练过的混合卷积神经网络模型进行微调,进一步优化网络模型的参数,完成对混合卷积神经网络模型的最终训练;
13)待测图像的收集和预处理,获取待测图像并将待测图像的大小归一化为256×256像素,得到测试样本;
14)将测试样本输入训练完成后的混合卷积神经网络模型中,进行病害图像的自动识别,识别出待测病害图像的类别。
2.根据权利要求1所述的一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,其特征在于,所述的构建混合卷积神经网络模型包括以下步骤:
21)采用基于AlexNet模型的8层结构构造混合卷积神经网络FCNN,其中:AlexNet模型的前5层为卷积层、后3层为全连接层,
将归一化后截取的227×227像素大小的的训练样本输入混合卷积神经网络的第1层卷积层,经过从第2层至第5层卷积滤波后从混合卷积神经网络的第6层全连接层输出病害图像特征向量;
22)前馈全连接子网的设定,
将前馈全连接子网设定为两层全连接层,设病害作物所属类别数为n,将病害作物所属类别作为上下文信息,则输入向量为n维向量,将n维向量作为前馈全连接子网的两层全连接层的输入,输出上下文信息特征向量;
23)将病害图像特征向量和上下文信息特征向量直接连接成混合向量;
24)将混合向量作为混合卷积神经网络的第7层的输入,混合卷积神经网络的第8层的输出经过softmax分类器,得到图像所属的病害类别的概率。
3.根据权利要求1所述的一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,其特征在于,所述的混合卷积神经网络模型的训练包括以下步骤:
31)针对混合卷积神经网络模型基于Caffe框架进行整个网络模型的训练,使用imagenet图像集来初步训练构造的混合卷积神经网络模型;
32)将初步训练后的模型中的所有或者部分参数值用作最终模型参数的初始值,再使用收集的若干病害训练图像对已初步训练过的混合卷积神经网络进行微调,进一步优化网络模型的参数,完成对混合卷积神经网络模型的最终训练。
4.根据权利要求3所述的一种基于融合上下文信息的混合卷积神经网络的病害图像识别方法,其特征在于,针对混合卷积神经网络模型基于Caffe框架进行整个网络模型的训练包括以下步骤:
41)前向传播阶段,从imagenet图像集中取出一个样本(Xi,Oi),将图像Xi输入混合卷积神经网络,经过逐级的变换,传送到输出层,计算相应的实际输出Oi,其计算公式如下:
Oi=Fn(Fn-1(L F2(F1(Xiw(1)+b(1))w(2)+b(2))L)w(n)+b(n)
其中,Fn()表示第n层的激活函数,w(n)表示第n层的权值,b(n)表示第n的偏置;
42)后向传播阶段,计算实际输出Oi和理想输出Yi的差,然后按照极小化误差的方法反向传播调整权矩阵,其输出层的误差计算公式如下:
Ei=1/2∑k(Oik-Tik)2,
其中,Ei、Oik、Tik分别是第i个样本的误差、第i个样本输出层第k个神经元的输出、第i个样本输出层第k个神经元的期望输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710041270.0A CN106682704B (zh) | 2017-01-20 | 2017-01-20 | 一种融合上下文信息的病害图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710041270.0A CN106682704B (zh) | 2017-01-20 | 2017-01-20 | 一种融合上下文信息的病害图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106682704A CN106682704A (zh) | 2017-05-17 |
CN106682704B true CN106682704B (zh) | 2019-08-23 |
Family
ID=58859394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710041270.0A Active CN106682704B (zh) | 2017-01-20 | 2017-01-20 | 一种融合上下文信息的病害图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106682704B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239514A (zh) * | 2017-05-19 | 2017-10-10 | 邓昌顺 | 一种基于卷积神经网络的植物识别方法及系统 |
CN107392091B (zh) * | 2017-06-09 | 2020-10-16 | 河北威远生物化工有限公司 | 一种农业人工智能作物检测方法、移动终端和计算机可读介质 |
CN107392224A (zh) * | 2017-06-12 | 2017-11-24 | 天津科技大学 | 一种基于三通道卷积神经网络的作物病害识别算法 |
CN107506786B (zh) * | 2017-07-21 | 2020-06-02 | 华中科技大学 | 一种基于深度学习的属性分类识别方法 |
CN107808375B (zh) * | 2017-09-28 | 2019-07-16 | 中国科学院合肥物质科学研究院 | 融合多种上下文深度学习模型的水稻病害图像检测方法 |
US10423850B2 (en) * | 2017-10-05 | 2019-09-24 | The Climate Corporation | Disease recognition from images having a large field of view |
CN107886049B (zh) * | 2017-10-16 | 2022-08-26 | 江苏省气象服务中心 | 一种基于摄像探头的能见度识别预警方法 |
CN107798356A (zh) * | 2017-11-24 | 2018-03-13 | 郑州大学西亚斯国际学院 | 基于深度卷积神经网络的作物叶片病害识别方法 |
CN108038517A (zh) * | 2018-01-02 | 2018-05-15 | 东北农业大学 | 基于改进卷积神经网络模型Cifar10的玉米叶片病害识别方法 |
CN108198620B (zh) * | 2018-01-12 | 2022-03-22 | 洛阳飞来石软件开发有限公司 | 一种基于深度学习的皮肤疾病智能辅助诊断系统 |
CN108596201A (zh) * | 2018-03-06 | 2018-09-28 | 深圳市农博创新科技有限公司 | 一种基于图片识别果蔬病害的方法及装置 |
CN108509427B (zh) * | 2018-04-24 | 2022-03-11 | 北京慧闻科技(集团)有限公司 | 文本数据的数据处理方法及应用 |
CN109064460B (zh) * | 2018-08-01 | 2021-09-28 | 中国科学院合肥物质科学研究院 | 基于多时序属性元素深度特征的小麦重度病害预测方法 |
CN108876787A (zh) * | 2018-08-02 | 2018-11-23 | 济南浪潮高新科技投资发展有限公司 | 一种基于深度学习的农作物生病监测主控板 |
CN109410158B (zh) * | 2018-08-21 | 2020-10-02 | 西安电子科技大学 | 一种基于卷积神经网络的多焦点图像融合方法 |
CN110622182A (zh) * | 2018-09-04 | 2019-12-27 | 安徽中科智能感知产业技术研究院有限责任公司 | 基于多时序属性元素深度特征的小麦重度病害预测方法 |
CN109165623B (zh) * | 2018-09-07 | 2020-08-04 | 北京麦飞科技有限公司 | 基于深度学习的水稻病斑检测方法及系统 |
CN109379557A (zh) * | 2018-09-30 | 2019-02-22 | 田东县文设芒果专业合作社 | 基于图像识别的芒果虫害智能监控系统 |
CN109446985B (zh) * | 2018-10-28 | 2021-06-04 | 贵州师范学院 | 基于矢量神经网络的多角度植物识别方法 |
CN109635835A (zh) * | 2018-11-08 | 2019-04-16 | 深圳蓝韵医学影像有限公司 | 一种基于深度学习与迁移学习的乳腺病变区域检测方法 |
CN109977750A (zh) * | 2019-01-15 | 2019-07-05 | 平安科技(深圳)有限公司 | 印章真伪校验方法、装置及计算机可读存储介质 |
CN115050014A (zh) * | 2022-06-15 | 2022-09-13 | 河北农业大学 | 一种基于图像文本学习的小样本番茄病害识别系统及方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011101800A1 (en) * | 2010-02-17 | 2011-08-25 | Alon Atsmon | Automatic method and system for visual analysis of object against preset |
CN104598908B (zh) * | 2014-09-26 | 2017-11-28 | 浙江理工大学 | 一种农作物叶部病害识别方法 |
CN106022467A (zh) * | 2016-05-17 | 2016-10-12 | 浪潮集团有限公司 | 一种基于神经网络的农作物疾病检测系统 |
-
2017
- 2017-01-20 CN CN201710041270.0A patent/CN106682704B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106682704A (zh) | 2017-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106682704B (zh) | 一种融合上下文信息的病害图像识别方法 | |
CN106780466A (zh) | 一种基于卷积神经网络的宫颈细胞图像识别方法 | |
CN106169081B (zh) | 一种基于不同照度的图像分类及处理方法 | |
CN106203523B (zh) | 基于梯度提升决策树半监督算法融合的高光谱图像分类方法 | |
CN106682633B (zh) | 基于机器视觉的粪便镜检图像有形成分的分类识别方法 | |
CN106096616A (zh) | 一种基于深度学习的磁共振影像特征提取及分类方法 | |
CN105139395B (zh) | 基于小波池化卷积神经网络的sar图像分割方法 | |
CN109146831A (zh) | 基于双支深度学习网络的遥感图像融合方法及系统 | |
CN105701480B (zh) | 一种视频语义分析方法 | |
CN107481188A (zh) | 一种图像超分辨率重构方法 | |
CN107622233A (zh) | 一种表格识别方法、识别系统及计算机装置 | |
CN107330892A (zh) | 一种基于随机森林法的向日葵病害识别方法 | |
CN107145889A (zh) | 基于具有RoI池化的双CNN网络的目标识别方法 | |
CN106845418A (zh) | 一种基于深度学习的高光谱图像分类方法 | |
CN110084285A (zh) | 基于深度学习的鱼类细粒度分类方法 | |
CN106845401A (zh) | 一种基于多空间卷积神经网络的害虫图像识别方法 | |
CN106250911B (zh) | 一种基于卷积神经网络的图片分类方法 | |
CN108596338A (zh) | 一种神经网络训练集的获取方法及其系统 | |
DE112015000964T5 (de) | Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm | |
CN109272500A (zh) | 基于自适应卷积神经网络的织物分类方法 | |
CN107292314A (zh) | 一种基于cnn的鳞翅目昆虫种类自动鉴别方法 | |
CN108629369A (zh) | 一种基于Trimmed SSD的尿沉渣有形成分自动识别方法 | |
CN108053398A (zh) | 一种半监督特征学习的黑色素瘤自动检测方法 | |
CN111127423B (zh) | 一种基于cnn-bp神经网络算法水稻病虫害识别方法 | |
CN110020691B (zh) | 基于卷积神经网络对抗式训练的液晶屏幕缺陷检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |