CN113159171A - 一种基于对抗学习的植物叶片图像细分类方法 - Google Patents

一种基于对抗学习的植物叶片图像细分类方法 Download PDF

Info

Publication number
CN113159171A
CN113159171A CN202110423483.6A CN202110423483A CN113159171A CN 113159171 A CN113159171 A CN 113159171A CN 202110423483 A CN202110423483 A CN 202110423483A CN 113159171 A CN113159171 A CN 113159171A
Authority
CN
China
Prior art keywords
classification
network
layer
plant leaf
plant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110423483.6A
Other languages
English (en)
Other versions
CN113159171B (zh
Inventor
金城
靳璐瑞
吴渊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202110423483.6A priority Critical patent/CN113159171B/zh
Publication of CN113159171A publication Critical patent/CN113159171A/zh
Application granted granted Critical
Publication of CN113159171B publication Critical patent/CN113159171B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明属于图像分类技术领域,具体为一种基于对抗学习的植物叶片图像细分类方法。本发明通过将植物叶片图像多次分割打乱之后作为样本训练植物叶片图像细分类模型;最后将植物叶片图像经过同样的多重打乱操作之后输入到训练好的网络模型,计算并输出植物图片的细分类结果。相比于现有的植物细分类方法,本发明所提出的方法可以提取图片的多个粒度的特征,另外引入的全局上下文块可以融合图像的全局和局部特征,提高了网络融合多个粒度的特征的能力。

Description

一种基于对抗学习的植物叶片图像细分类方法
技术领域
本发明属于植物细分类领域,具体涉及一种基于对抗学习的植物叶片图像细分类方法。
背景技术
植物是生命发展的支柱,不管是环境还是人类的生存都要依靠植物的存在,不管是为了便利人类的生活还是出于对环境保护的考量对于植物类别的分辨都非常重要,比如准确的分辨药用植物和非药用植物等。传统的植物分类需要植物学专家依靠自己的专业知识进行分辨,而对于普通人来说是一件非常困难的事,为了满足植物科普以及保护植物的需要,研究利用现代图像处理、深度学习方法进行植物叶片图像分类是非常有必要的。
传统的植物分类方法需要植物学家利用自己丰富的分类经验才能够进行分辨,分类速度非常慢,而且一般人不具备植物学家的专业知识。而在机器学习领域,可以通过传统的图像处理方法,提取植物叶片的形状、纹理等特征,利用KNN等分类算法对植物叶片图像进行分类,而这种方法提取特征不充分,分类类别较少,无法对大规模的植物叶片进行精细的分类。而目前基于神经网络的方法,大多集中于对于植物叶片的局部特征或者全局特征,没有将两者很好的结合起来,导致在分类结果上存在一些缺陷。
发明内容
针对现有技术存在的问题,本发明提供了一种新的基于对抗学习的植物叶片图像细分类方法。该方法是基于深度学习的方法,是针对现有的深度学习模型没有很好的融合全局和局部特征这一缺陷进行的改进。本发明提出的植物叶片图像细分类方法,能够更好的融合图像的全局和局部特征,提高了分类的准确率。
本发明的技术方案具体介绍如下。
一种基于对抗学习的植物叶片图像细分类方法,主要分为两个阶段:植物叶片图像细分类模型训练阶段,植物叶片图像分类阶段;其中:
在植物叶片图像细分类模型训练阶段,通过对输入图片进行分割打乱以及卷积运算,引入全局上下文块,建立植物图片细分类模型,并使用大量的植物叶片图像样本进行训练;
在植物叶片图像分类阶段,将植物叶片图像经过与训练阶段同样的打乱操作之后输入到已训练完成的细分类模型后,网络将会输出植物图片的分类结果。
本发明提供的一种基于对抗学习的植物叶片图像细分类方法的基本过程是:首先,建立植物叶片图像细分类模型,以多张经过不同尺度分割并打乱的叶片图像为基础进行卷积运算,通过训练样本(叶片图像-分类结果)对分类模型进行训练;最后,在植物叶片图像细分类时,将植物叶片图像经过与模型训练阶段同样的分割打乱后输入到植物叶片细分类模型,模型运算后输出图片的细分类结果。具体步骤为:
1.图像预处理
在进行图像预处理时,对于每一张输入的图像I,经过随机裁剪到448×448之后,分别使用N为1,4,7这三个尺寸,先将其划分为N×N的子区域Ri,j,其中i和j是行号和列号,1≤i,j≤N,然后对N×N的子区域做打乱操作,并给打乱后的图片赋予新的标签,具体赋予方式为若N=1的标签为Li,则N=4的标签为Li+Kcls,N=7的标签为Li+2*Kcls,Kcls表示植物叶片图像的总类别数。图片的打乱方式如下:
首先,对Ri,j中的第i行生成一个大小为N的随机数组qi,数组qi中的第j个元素qi,j=j+r,其中r是一个随机变量,r∈[-k,k],1≤k≤N。然后,对数组qi进行排序,就得到了一个新的排列
Figure BDA0003028770640000021
而对Ri,j中的第j列也生成一个大小为N随机数组pj,数组pj中的第i个元素pj,i=i+t,其中t是一个随机变量t∈[-k,k]。然后对数组pj排序,得到一个新的排列
Figure BDA0003028770640000022
最后,再在子区域Ri,j的(i,j)位置处放置一个新的子区域:
Figure BDA0003028770640000023
2.植物叶片图像细分类模型训练
(1)构建网络
网络结构分为三个模块,分别是:分类网络模块、对抗学习模块、区域定位模块。分类网络模块的作用是对输入的图像进行分类;对抗学习模块的输入是分类网络中第六层的输出,用于减少在步骤1中的图像预处理阶段因打乱图像而引入的噪声;区域定位模块的输入是分类网络中第五层的输出,用于促使网络构建各个切分区域之间的语义关系。它们结构如下:
1)分类网络
分类网络采用了八层结构:
第一层,由三个连续的相同模块组成,每一个模块中包含了64个1×1的卷积核、64个3×3的卷积核和256个1×1的卷积核;
第二层,由四个连续的相同模块组成,每一个模块中包含了128个1×1的卷积核、128个3×3的卷积核和512个1×1的卷积核;
第三层,由留个连续的相同模块组成,每一个模块中包含了256个1×1的卷积核、256个3×3的卷积核和1024个1×1的卷积核;
第四层,全局上下文块,它的结构包含了3个1×1卷积、逻辑回归、层归一化和线性整流函数等,其具体计算流程:将分类网络中第三层的输出X∈RC×H×W作为输入,C表示X的通道数,H和W表示X的高度和宽度,将X变换维度得到X1∈RC×HW,然后X1经过1×1卷积和逻辑回归之后得到X′∈RHW×1×1,然后对X1和X′做矩阵乘法,再对得到的结果依次经过1×1卷积,层归一化、线性整流函数和1×1卷积得到X″∈RC×1×1,最后再对X和X″做矩阵加法,得到最终的结果输入到下一层进行运算;
第五层,由三个连续的相同模块组成,每一个模块中包含了512个1×1的卷积核、512个3×3的卷积核和2048个1×1的卷积核;
第六层,自适应平均池化层;
第七层,特征拼接层;
第八层,全连接层,具有Kcls个神经元,Kcls和叶片图像的类别数相同;
2)对抗学习网络
对抗学习网络的结构和分类网络结构基本一致,仅将分类网络中的特征拼接和全连接层替换为了一个全连接层,它包含了3*Kcls个神经元,Kcls和叶片图片的类别数相同;
3)区域定位网络
这一部分对于N=4和N=7构建了两个不同的网络结构。将分类网络结构中的自适应平均池化层、特征拼接和全连接层做了相应的替换:
当N=4时,修改为步长为1的卷积层、步长为3的平均池化层和双曲正切函数;
当N=7时,修改为步长为1的卷积层、步长为2的平均池化层和双曲正切函数;
(2)训练网络
网络的训练样本集为
Figure BDA0003028770640000031
M表示样本的数量,Ti=(Ii,Li)表示样本集中的第i个样本,Ii是一张图片,Li是第i张图片对应的分类标签。在训练时将输入的每一张图片Ii,经过步骤1中的预处理之后得到打乱后图片Ii1、Ii4、Ii7,然后将打乱后的图片输入到网络中进行训练。
在分类网络中,Ii1、Ii4、Ii7经过了相同的网络结构之后分别提取到一个2048维的特征Fi1、Fi4、Fi7,经过一个特征拼接层之后获得一个整体的特征Fi,最后将Fi输入到全连接层中得到分类结果L′i,对于分类模块使用了交叉熵损失作为损失函数,用Lcls表示。
Figure BDA0003028770640000032
其中l表示输入图片真实标签的概率分布,C(I)表示的网络输出的预测标签的概率分布。
在对抗学习网络中,将Ii1、Ii4、Ii7在分类网络中第6个模块的输出输入到对抗学习网络中,分别获得一个分类结果L′i1、L′i4、L′i7,对于对抗学习模块的损失函数同样使用交叉熵损失,用Ladv表示。
Figure BDA0003028770640000041
其中l1、l4、l7分别表示原始图像Ii1、Ii4、Ii7的真实标签的概率分布,D(Ii1)、D(Ii4)、D(Ii7)则表示对抗学习网络预测标签的概率分布。
在区域定位模块中,将N=1的图片分别输入到N=4和N=7的区域定位网络结构中得到
Figure BDA0003028770640000042
Figure BDA0003028770640000043
而将N=4和N=7的图片分别输入到自己对应的区域定位网络结构中得到
Figure BDA0003028770640000044
Figure BDA0003028770640000045
然后对
Figure BDA0003028770640000046
和按N=4分割的子区域的坐标(i,j)计算L1损失Lloc4以及
Figure BDA0003028770640000047
和按N=7分割的子区域坐标(i,j)计算L1损失Lloc7
Figure BDA0003028770640000048
Figure BDA0003028770640000049
最后整个网络训练过程的损失函数可以表示为:
Lall=αLcls+βLadv4Lloc47Lloc7
其中Lall表示总体损失,α、β、γ4、γ7表示各个损失在总体损失中的权重。
3.植物叶片图像细分类
训练得到植物叶片细分类模型之后,即可用来进行植物叶片的细分类了。具体做法是:
(1)构建一个分类标签到植物名称的映射表。
(2)进行分类时的过程与训练模型时的过程基本相同,不同之处在于,在进行分类时,不再经过对抗学习模块和区域定位模块这两部分,而是仅通过分类网络即可得到分类结果L′,再在分类标签到植物名称的映射表中查询即可获得最终的植物分类名。
Plantname=f(L′)
其中Plantname表示植物的分类名,L′是分类网络输出的分类标签,f(·)是分类标签和植物名的映射关系。
和现有技术相比,本发明的有益效果如下:
本发明提出的N=1,4,7的多尺度分割,随机打乱方法,可以帮助网络提取到图像的多个不同粒度的特征,提高分类的准确率,对抗学习模块应用对抗学习的方式,减少图像预处理阶段因为切分打乱图像而引入的噪声,而区域定位模块通过计算区域定位损失,提升网络构建各个切分块之间语义关系的能力,另外本发明引入的全局上下文块的结构,通过残差连接让网络可以在不增加网络深度的同时更好的结合图像的全局特征和局部特征,提高了网络融合特征的能力。
附图说明
图1是本发明所提植物叶片图像细分类方法的流程图。
图2是全局上下文块结构图。图中
Figure BDA0003028770640000051
表示矩阵乘法,
Figure BDA0003028770640000052
表示矩阵加法。
图3是本发明与ResNet50的特征可视化对照图。
具体实施方式
以下结合附图和实施例对本发明的技术方案进行详细阐述。
实施例1
本发明提出一种基于对抗学习的植物叶片图像细分类方法,其流程图如图1所示,可分为两个部分:植物叶片图像细分类模型训练和植物叶片图像分类。具体如下:
1.图像预处理
在进行图像预处理时,对于每一张输入的图像I,经过随机裁剪到448×448之后,分别使用N为1,4,7这三个尺寸,先将其划分为N×N的子区域Ri,j,其中i和j是行号和列号,1≤i,j≤N,然后对N×N的子区域做打乱操作,并给打乱后的图片赋予新的标签,具体赋予方式为若N=1的标签为Li,则N=4的标签为Li+Kcls,N=7的标签为Li+2*Kcls,Kcls表示植物叶片图像的总类别数。图片的打乱方式如下:
首先,对Ri,j中的第i行生成一个大小为N的随机数组qi,数组qi中的第j个元素qi,j=j+r,其中r是一个随机变量,r∈[-k,k],1≤k≤N。然后,对数组qi进行排序,就得到了一个新的排列
Figure BDA0003028770640000053
而对Ri,j中的第j列也生成一个大小为N随机数组pj,数组pj中的第i个元素pj,i=i+t,其中t是一个随机变量t∈[-k,k]。然后对数组pj排序,得到一个新的排列
Figure BDA0003028770640000054
最后,再在子区域Ri,j的(i,j)位置处放置一个新的子区域:
Figure BDA0003028770640000055
2.植物叶片图像细分类模型训练
(1)构建网络
网络结构分为三个模块,分别是:分类网络模块、对抗学习模块、区域定位模块。分类网络模块的作用是对输入的图像进行分类;对抗学习模块的输入是分类网络中第六层的输出,用于减少在步骤1中的图像预处理阶段因打乱图像而引入的噪声;区域定位模块的输入是分类网络中第五层的输出,用于促使网络构建各个切分区域之间的语义关系。它们结构如下:
1)分类网络:
分类网络采用了八层结构:
第一层,由三个连续的相同模块组成,每一个模块中包含了64个1×1的卷积核、64个3×3的卷积核和256个1×1的卷积核;
第二层,由四个连续的相同模块组成,每一个模块中包含了128个1×1的卷积核、128个3×3的卷积核和512个1×1的卷积核;
第三层,由留个连续的相同模块组成,每一个模块中包含了256个1×1的卷积核、256个3×3的卷积核和1024个1×1的卷积核;
第四层,全局上下文块,它的结构包含了3个1×1卷积、逻辑回归、层归一化和线性整流函数等,其具体计算流程:将分类网络中第三层的输出X∈RC×H×W作为输入,C表示X的通道数,H和W表示X的高度和宽度,将X变换维度得到X1∈RC×HW,然后X1经过1×1卷积和逻辑回归之后得到X′∈RHW×1×1,然后对X1和X′做矩阵乘法,再对得到的结果依次经过1×1卷积,层归一化、线性整流函数和1×1卷积得到X″∈RC×1×1,最后再对X和X″做矩阵加法,得到最终的结果输入到下一层进行运算;
第五层,由三个连续的相同模块组成,每一个模块中包含了512个1×1的卷积核、512个3×3的卷积核和2048个1×1的卷积核;
第六层,自适应平均池化层;
第七层,特征拼接层;
第八层,全连接层,具有Kcls个神经元,Kcls和叶片图像的类别数相同;
2)对抗学习网络
对抗学习网络的结构和分类网络结构基本一致,仅将分类网络中的特征拼接和全连接层替换为了一个全连接层,它包含了3*Kcls个神经元,Kcls和叶片图片的类别数相同;
3)区域定位网络
这一部分对于N=4和N=7构建了两个不同的网络结构。将分类网络结构中的自适应平均池化层、特征拼接和全连接层做了相应的替换:
当N=4时,修改为步长为1的卷积层、步长为3的平均池化层和双曲正切函数。
当N=7时,修改为步长为1的卷积层、步长为2的平均池化层和双曲正切函数。
(2)训练网络
网络的训练样本集为
Figure BDA0003028770640000061
M表示样本的数量,Ti=(Ii,Li)表示样本集中的第i个样本,Ii是一张图片,Li是第i张图片对应的分类标签。在训练时将输入的每一张图片Ii,经过步骤1中的预处理之后得到打乱后图片Ii1、Ii4、Ii7,然后将打乱后的图片输入到网络中进行训练。
在分类网络中,Ii1、Ii4、Ii7经过了相同的网络结构之后分别提取到一个2048维的特征Fi1、Fi4、Fi7,经过一个特征拼接层之后获得一个整体的特征Fi,最后将Fi输入到全连接层中得到分类结果L′i,对于分类模块使用了交叉熵损失作为损失函数,用Lcls表示。
Figure BDA0003028770640000071
其中l表示输入图片真实标签的概率分布,C(I)表示的网络输出的预测标签的概率分布。
在对抗学习网络中,将Ii1、Ii4、Ii7在分类网络中第6个模块的输出输入到对抗学习网络中,分别获得一个分类结果L′i1、L′i4、L′i7,对于对抗学习模块的损失函数同样使用交叉熵损失,用Ladv表示。
Figure BDA0003028770640000072
其中l1、l4、l7分别表示原始图像Ii1、Ii4、Ii7的真实标签的概率分布,D(Ii1)、D(Ii4)、D(Ii7)则表示对抗学习网络预测标签的概率分布。
在区域定位模块中,将N=1的图片分别输入到N=4和N=7的区域定位网络结构中得到
Figure BDA0003028770640000073
Figure BDA0003028770640000074
而将N=4和N=7的图片分别输入到自己对应的区域定位网络结构中得到
Figure BDA0003028770640000075
Figure BDA0003028770640000076
然后
Figure BDA0003028770640000077
和按N=4分割的子区域的坐标(i,j)计算L1损失Lloc4以及
Figure BDA0003028770640000078
和按N=7分割的子区域坐标(i,j)计算L1损失Lloc7
Figure BDA0003028770640000079
Figure BDA00030287706400000710
最后整个网络训练过程的损失函数可以表示为:
Lall=αLcls+βLadv4Lloc47Lloc7
其中Lall表示总体损失,α、β、γ4、γ7表示各个损失在总体损失中的权重。
网络训练过程中采用SGD算法作为优化策略,批大小batch_size设为32。初始学习率设置为0.0001,每训练60个epoch将学习率调整为原来的10%,整个训练过程一共有180个epoch。
3.植物叶片图像细分类
训练得到植物叶片细分类模型之后,即可用来进行植物叶片的细分类了。具体做法是:
(1)构建一个分类标签到植物名称的映射表(表1)。
表1植物名称映射表
Figure BDA00030287706400000711
Figure BDA0003028770640000081
(2)进行分类时的过程与训练模型时的过程基本相同,不同之处在于,在进行分类时,不再经过对抗学习模块和区域定位模块这两部分,而是仅通过分类网络即可得到分类结果L′,再在分类标签到植物名称的映射表中查询即可获得最终的植物分类名。
Plantname=f(L′)
其中Plantname表示植物的分类名,L′是分类网络输出的分类标签,f(·)是分类标签和植物名的映射关系。
为了验证本发明所提方法的有效性,进行了对照实验,方法提取的特征可视化结果见下图。作为对照的方法是ResNet50分类网络。两种方法使用了相同的训练集和测试集,包含训练集11296张图片,测试集2690张图片,共520个类别。从图3中可以看出相比于ResNet50,本发明的特征提取能力更强,集中到了图片的辨识区域,而ResNet50则关注到了一些无关的区域,或者仅关注到小部分的辨识区域。另外如表2所示,在准确率上,本发明也高于ResNet50的准确率。由此可见本发明所提方法是有效的。
表2对照实验结果
方法 ResNet50 本发明
准确率 43.49% 56.39%

Claims (2)

1.一种基于对抗学习的植物叶片图像细分类方法,其特征在于,其分为2个阶段:植物叶片图像细分类模型训练阶段,植物叶片图像分类阶段;其中:
植物叶片图像细分类模型训练阶段,通过对输入的植物叶片图片进行分割打乱以及卷积运算,引入全局上下文块,建立植物叶片图像细分类模型,并使用大量的植物叶片图像样本进行训练;
植物叶片图像分类阶段,将待测的植物叶片图像经过与训练阶段同样的打乱操作之后输入到已训练完成的植物叶片图像细分类模型后,网络输出待测的植物叶片图像的分类结果。
2.根据权利要求1所述的植物叶片图像细分类方法,其特征在于,具体步骤如下:
(1)图像预处理
在进行图像预处理时,对于每一张输入的图像I,经过随机裁剪到448×448之后,分别使用N为1,4,7这三个尺寸,先将其划分为N×N的子区域Ri,j,其中i和j是行号和列号,1≤i,j≤N,然后对N×N的子区域做打乱操作,并给打乱后的图片赋予新的标签,具体赋予方式为若N=1的标签为Li,则N=4的标签为Li+Kcls,N=7的标签为Li+2*Kcls,Kcls表示植物叶片图像的总类别数;图片的打乱方式如下:
首先,对Ri,j中的第i行生成一个大小为N的随机数组qi,数组qi中的第j个元素qi,j=j+r,其中r是一个随机变量,r∈[-k,k],1≤k≤N;其次,对数组qi进行排序,得到一个新的排列
Figure FDA0003028770630000011
对Ri,j中的第j列也生成一个大小为N随机数组pj,数组pj中的第i个元素pj,i=i+t,其中t是一个随机变量t∈[-k,k];接着对数组pj排序,得到一个新的排列
Figure FDA0003028770630000012
最后,再在子区域Ri,j的(i,j)位置处放置一个新的子区域:
Figure FDA0003028770630000013
(2)植物叶片图像细分类模型训练
1)构建网络
网络结构分为三个模块,分别是:分类网络模块、对抗学习模块、区域定位模块。分类网络模块的作用是对输入的图像进行分类;对抗学习模块的输入是分类网络中第六层的输出,用于减少在图像预处理阶段因打乱图像而引入的噪声;区域定位模块的输入是分类网络中第五层的输出,用于促使网络构建各个切分区域之间的语义关系;它们结构如下:
a)分类网络
分类网络采用了八层结构:
第一层,由三个连续的相同模块组成,每一个模块中包含了64个1×1的卷积核、64个3×3的卷积核和256个1×1的卷积核;
第二层,由四个连续的相同模块组成,每一个模块中包含了128个1×1的卷积核、128个3×3的卷积核和512个1×1的卷积核;
第三层,由六个连续的相同模块组成,每一个模块中包含了256个1×1的卷积核、256个3×3的卷积核和1024个1×1的卷积核;
第四层,全局上下文块,它的结构包含了3个1×1卷积、逻辑回归、层归一化和线性整流函数等,其具体计算流程:将分类网络中第三层的输出X∈RC×H×W作为输入,C表示X的通道数,H和W表示X的高度和宽度,将X变换维度得到X1∈RC×HW,然后X1经过1×1卷积和逻辑回归之后得到X′∈RHW×1×1,然后对X1和X′做矩阵乘法,再对得到的结果依次经过1×1卷积,层归一化、线性整流函数和1×1卷积得到X″∈RC×1×1,最后再对X和X″做矩阵加法,得到最终的结果输入到下一层进行运算;
第五层,由三个连续的相同模块组成,每一个模块中包含了512个1×1的卷积核、512个3×3的卷积核和2048个1×1的卷积核;
第六层,自适应平均池化层;
第七层,特征拼接层;
第八层,全连接层,具有Kcls个神经元,Kcls和叶片图像的类别数相同;
b)对抗学习网络
对抗学习网络的结构和分类网络结构基本一致,仅将分类网络中的特征拼接和全连接层替换为了一个全连接层,它包含了3*Kcls个神经元,Kcls和叶片图片的类别数相同;
c)区域定位网络
这一部分对于N=4和N=7构建了两个不同的网络结构,将分类网络结构中的自适应平均池化层、特征拼接和全连接层做了相应的替换:
当N=4时,修改为步长为1的卷积层、步长为3的平均池化层和双曲正切函数;
当N=7时,修改为步长为1的卷积层、步长为2的平均池化层和双曲正切函数;
2)训练网络
网络的训练样本集为
Figure FDA0003028770630000021
M表示样本的数量,Ti=(Ii,Li)表示样本集中的第i个样本,Ii是一张图片,Li是第i张图片对应的分类标签;在训练时将输入的每一张图片Ii,经过图像预处理阶段之后得到打乱后图片Ii1、Ii4、Ii7,然后将打乱后的图片输入到网络中进行训练;
在分类模块的网络中,Ii1、Ii4、Ii7经过了相同的网络结构之后分别提取到一个2048维的特征Fi1、Fi4、Fi7,经过一个特征拼接层之后获得一个整体的特征Fi,再将Fi输入到全连接层中得到分类结果L′i,对于分类模块使用了交叉熵损失作为损失函数,用Lcls表示:
Figure FDA0003028770630000031
其中l表示输入图片真实标签的概率分布,C(I)表示分类网络输出的预测标签的概率分布;
在对抗学习网络中,将Ii1、Ii4、Ii7在分类网络中自适应平均池化层的输出输入到对抗学习网络中,分别获得一个分类结果L′i1、L′i4、L′i7,对于对抗学习模块的损失函数同样使用交叉熵损失,用Ladv表示。
Figure FDA0003028770630000032
其中l1、l4、l7分别表示原始图像Ii1、Ii4、Ii7的真实标签的概率分布,D(Ii1)、D(Ii4)、D(Ii7)则表示对抗学习网络预测标签的概率分布;
在区域定位网络中,将N=1的图片分别输入到N=4和N=7的区域定位网络结构中得到
Figure FDA0003028770630000033
Figure FDA0003028770630000034
而将N=4和N=7的图片分别输入到自己对应的区域定位网络结构中得到
Figure FDA0003028770630000035
Figure FDA0003028770630000036
然后对
Figure FDA0003028770630000037
和按N=4分割的子区域的坐标(i,j)计算L1损失Lloc4,并对
Figure FDA0003028770630000038
和按N=7分割的子区域坐标(i,j)计算L1损失Lloc7
Figure FDA0003028770630000039
Figure FDA00030287706300000310
最后整个网络训练过程的损失函数表示为:
Lall=αLcls+βLadv4Lloc47Lloc7
其中Lall表示总体损失,α、β、γ4、γ7表示各个损失在总体损失中的权重;
(3)植物叶片图像细分类
训练得到植物叶片图像细分类模型之后,即可用来进行植物叶片的细分类了;具体做法是:
1)构建一个分类标签到植物名称的映射表;
2)进行分类时的过程与训练模型时的过程基本相同,不同之处在于,在进行分类时,不再经过对抗学习模块和区域定位模块这两部分,而是仅通过分类网络分类即得到分类结果L′,再在分类标签到植物名称的映射表中查询即获得最终的植物分类名:
Plantname=f(L′)
其中Plantname表示植物的分类名,L′是分类网络输出的分类标签,f(·)是分类标签和植物名的映射关系。
CN202110423483.6A 2021-04-20 2021-04-20 一种基于对抗学习的植物叶片图像细分类方法 Active CN113159171B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110423483.6A CN113159171B (zh) 2021-04-20 2021-04-20 一种基于对抗学习的植物叶片图像细分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110423483.6A CN113159171B (zh) 2021-04-20 2021-04-20 一种基于对抗学习的植物叶片图像细分类方法

Publications (2)

Publication Number Publication Date
CN113159171A true CN113159171A (zh) 2021-07-23
CN113159171B CN113159171B (zh) 2022-07-22

Family

ID=76869025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110423483.6A Active CN113159171B (zh) 2021-04-20 2021-04-20 一种基于对抗学习的植物叶片图像细分类方法

Country Status (1)

Country Link
CN (1) CN113159171B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998693A (zh) * 2022-08-05 2022-09-02 成都明途科技有限公司 农作物病害识别方法、装置、电子设备及存储介质
CN116245855A (zh) * 2023-03-15 2023-06-09 云南大学 作物品种鉴定方法、装置、设备及存储介质
CN117095240A (zh) * 2023-10-16 2023-11-21 之江实验室 一种基于细粒度特征的叶片分类方法和系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107958246A (zh) * 2018-01-17 2018-04-24 深圳市唯特视科技有限公司 一种基于新型端到端人脸超分辨率网络的图像对齐方法
CN108492297A (zh) * 2017-12-25 2018-09-04 重庆理工大学 基于深度级联卷积网络的mri脑肿瘤定位与瘤内分割方法
CN110136149A (zh) * 2019-05-21 2019-08-16 闽江学院 基于深度神经网络的白细胞定位与分割方法
GB201912149D0 (en) * 2019-08-23 2019-10-09 Univ Oxford Innovation Ltd Computerised tomography image processing
LU101009B1 (en) * 2018-11-26 2020-05-26 Metamorphosis Gmbh Artificial-intelligence-based determination of relative positions of objects in medical images
CN111368754A (zh) * 2020-03-08 2020-07-03 北京工业大学 一种基于全局上下文信息的机场跑道异物检测方法
CN111507998A (zh) * 2020-04-20 2020-08-07 南京航空航天大学 基于深度级联的多尺度激励机制隧道表面缺陷分割方法
CN111553205A (zh) * 2020-04-12 2020-08-18 西安电子科技大学 无车牌信息车辆重识别方法、系统、介质、视频监控系统
CN111612076A (zh) * 2020-05-23 2020-09-01 南京南大智慧城市规划设计股份有限公司 基于DCL和Cascade的图像精细识别方法
US20200342600A1 (en) * 2018-01-08 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
CN112200134A (zh) * 2020-10-28 2021-01-08 支付宝(杭州)信息技术有限公司 基于用户隐私保护的图像处理方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108492297A (zh) * 2017-12-25 2018-09-04 重庆理工大学 基于深度级联卷积网络的mri脑肿瘤定位与瘤内分割方法
US20200342600A1 (en) * 2018-01-08 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
CN107958246A (zh) * 2018-01-17 2018-04-24 深圳市唯特视科技有限公司 一种基于新型端到端人脸超分辨率网络的图像对齐方法
LU101009B1 (en) * 2018-11-26 2020-05-26 Metamorphosis Gmbh Artificial-intelligence-based determination of relative positions of objects in medical images
CN110136149A (zh) * 2019-05-21 2019-08-16 闽江学院 基于深度神经网络的白细胞定位与分割方法
GB201912149D0 (en) * 2019-08-23 2019-10-09 Univ Oxford Innovation Ltd Computerised tomography image processing
CN111368754A (zh) * 2020-03-08 2020-07-03 北京工业大学 一种基于全局上下文信息的机场跑道异物检测方法
CN111553205A (zh) * 2020-04-12 2020-08-18 西安电子科技大学 无车牌信息车辆重识别方法、系统、介质、视频监控系统
CN111507998A (zh) * 2020-04-20 2020-08-07 南京航空航天大学 基于深度级联的多尺度激励机制隧道表面缺陷分割方法
CN111612076A (zh) * 2020-05-23 2020-09-01 南京南大智慧城市规划设计股份有限公司 基于DCL和Cascade的图像精细识别方法
CN112200134A (zh) * 2020-10-28 2021-01-08 支付宝(杭州)信息技术有限公司 基于用户隐私保护的图像处理方法及装置

Non-Patent Citations (12)

* Cited by examiner, † Cited by third party
Title
RUOYI DU等: ""Fine-Grained Visual Classification via Progressive Multi-Granularity Training of Jigsaw Patches"", 《ARXIV》, 10 March 2020 (2020-03-10) *
S SHUBATHRA等: ""Clothing Image Recognition Based on Multiple Features Using Deep Neural Networks"", 《IEEE》, 4 August 2020 (2020-08-04) *
YUE CHEN等: ""Destruction and Construction Learning for Fine-grained Image Recognition"", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, 31 December 2019 (2019-12-31), pages 1 - 5 *
侯勇: ""基于深度卷积神经网络和双域注意力机制的细粒度图像分类研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 02, 15 February 2021 (2021-02-15) *
姚琳: ""基于多级深度特征融合的RGB-T图像显著性目标检测"", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 02, 15 February 2021 (2021-02-15) *
尤轩昂等: ""融合注意力机制与密集多尺度特征的异质噪声虹膜分割方法"", 《激光与光电子学进展》, 13 April 2021 (2021-04-13) *
王奔等: ""基于残差网络的显著物体检测方法及应用"", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 04, 15 April 2021 (2021-04-15) *
邱津怡: ""基于深度学习的细粒度图像识别与分割研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 02, 15 February 2021 (2021-02-15) *
郭雯等: "基于深度学习的器官自动分割研究进展", 《医疗卫生装备》 *
郭雯等: "基于深度学习的器官自动分割研究进展", 《医疗卫生装备》, no. 01, 15 January 2020 (2020-01-15) *
青晨等: "深度卷积神经网络图像语义分割研究进展", 《中国图象图形学报》 *
青晨等: "深度卷积神经网络图像语义分割研究进展", 《中国图象图形学报》, no. 06, 16 June 2020 (2020-06-16) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998693A (zh) * 2022-08-05 2022-09-02 成都明途科技有限公司 农作物病害识别方法、装置、电子设备及存储介质
CN116245855A (zh) * 2023-03-15 2023-06-09 云南大学 作物品种鉴定方法、装置、设备及存储介质
CN116245855B (zh) * 2023-03-15 2023-09-01 云南大学 作物品种鉴定方法、装置、设备及存储介质
CN117095240A (zh) * 2023-10-16 2023-11-21 之江实验室 一种基于细粒度特征的叶片分类方法和系统

Also Published As

Publication number Publication date
CN113159171B (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN113159171B (zh) 一种基于对抗学习的植物叶片图像细分类方法
Khalil et al. Energy efficiency prediction using artificial neural network
Bisen Deep convolutional neural network based plant species recognition through features of leaf
CN110321967B (zh) 基于卷积神经网络的图像分类改进方法
CN109993100B (zh) 基于深层特征聚类的人脸表情识别的实现方法
CN109063719B (zh) 一种联合结构相似性和类信息的图像分类方法
CN110347791B (zh) 一种基于多标签分类卷积神经网络的题目推荐方法
CN110751038A (zh) 一种基于图注意力机制的pdf表格结构识别方法
CN109472733A (zh) 基于卷积神经网络的图像隐写分析方法
CN112100212A (zh) 一种基于机器学习和规则匹配的案件情节抽取方法
CN114676769A (zh) 一种基于视觉Transformer的小样本昆虫图像识别方法
CN113887342A (zh) 基于多源信号和深度学习的设备故障诊断方法
CN116129426A (zh) 一种宫颈细胞涂片18类别的细粒度分类方法
CN111598854A (zh) 基于丰富鲁棒卷积特征模型的复杂纹理小缺陷的分割方法
CN109543038B (zh) 一种应用于文本数据的情感分析方法
CN114625908A (zh) 基于多通道注意力机制的文本表情包情感分析方法及系统
CN110175631A (zh) 一种基于共同学习子空间结构和聚类指示矩阵的多视图聚类方法
CN113505856A (zh) 一种高光谱影像无监督自适应分类方法
CN106886819A (zh) 一种关于限制性玻尔兹曼机的改进方法
Sadati et al. An improved image classification based in feature extraction from convolutional neural network: application to flower classification
CN110363198A (zh) 一种神经网络权重矩阵拆分与组合的方法
CN116051924A (zh) 一种图像对抗样本的分治防御方法
CN114898136B (zh) 一种基于特征自适应的小样本图像分类方法
Huynh et al. An efficient model for copy-move image forgery detection
CN115496948A (zh) 一种基于深度学习的网络监督细粒度图像识别方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant