CN112862792A - 一种用于小样本图像数据集的小麦白粉病孢子分割方法 - Google Patents

一种用于小样本图像数据集的小麦白粉病孢子分割方法 Download PDF

Info

Publication number
CN112862792A
CN112862792A CN202110194041.9A CN202110194041A CN112862792A CN 112862792 A CN112862792 A CN 112862792A CN 202110194041 A CN202110194041 A CN 202110194041A CN 112862792 A CN112862792 A CN 112862792A
Authority
CN
China
Prior art keywords
data
matrix
network
layer
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110194041.9A
Other languages
English (en)
Other versions
CN112862792B (zh
Inventor
王波涛
梁鑫诜
李通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110194041.9A priority Critical patent/CN112862792B/zh
Publication of CN112862792A publication Critical patent/CN112862792A/zh
Application granted granted Critical
Publication of CN112862792B publication Critical patent/CN112862792B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

一种用于小样本图像数据集的小麦白粉病孢子分割方法属于计算机视觉技术领域,解决现有技术不能精确地通过图片进行小麦白粉病病害分析的问题。本发明主要设计了一种语义分割方法,进行小麦白粉病孢子的图像分割。其中主体包括两个网络,一是用于数据增强的对抗式生成网络模型,一个是用于分割目标小麦白粉病孢子的分割网络模型模型。在对分割模型进行训练时,为了弥补训练数据的不足,需要对图像进行相应的预处理以及使用对抗式生成网络模型及仿射变换进行数据增强。同时为了对目标孢子进行语义分割,也需要通过图像掩码提取出小麦白粉病孢子的轮廓实体用于训练。

Description

一种用于小样本图像数据集的小麦白粉病孢子分割方法
技术领域
本发明属于计算机视觉技术领域以及孢子分割领域。其中主要涉及的知识包括一些图像预处理、数据增强、神经网络语义分割、对抗式生成网络等。
背景技术
小麦白粉病是一种常见的小麦病害,白粉病孢子常生长在植物表面。在适当的环境条件下,白粉病孢子可以尽可能长时间的传播,从而造成对植物的伤害——白粉病,它影响植物的生长发育,严重的落叶甚至死亡。小麦白粉病在中国北方和南方各省十分常见,给农作物和经济造成了巨大的损失。目前,已经有智能一体化设备和农业病虫害监测系统实现了小麦白粉病孢子显微图片的采集和分析,但是其分割算法缺少研究,存在分割精度低的问题,并且难以实现语义分割,即从图中分割出目标孢子与背景,去除其他噪音和杂物,因此,如何从图像中准确地分割小麦白粉病孢子,以便进一步对小麦白粉病孢子进行识别,及时分析和获取小麦白粉病的信息,实现小麦白粉病的自动化监测,是当前需要解决的重要问题。
在计算机数字图像处理领域内,小麦白粉病孢子目标分割问题可以被归类为图像的二分类语义分割问题,即对图像中的每一个像素进行分类,将图像划分为前景和背景,因此该问题可以被视为一个逐像素的分类问题。在传统的图像语义分割方法中,使用的方法主要是根据图像纹理、颜色等浅层表观特征,进行特征的人工筛选和设计,进而使用支持向量机(SVM)、随机森林、AdaBoost,K-Means等分类算法进行分类。而小麦白粉病孢子图像存在噪声多,孢子颜色与部分杂物相近,边缘模糊等特点,因此传统方法效果并不好。近年来,随着深度学习技术和硬件的发展,许多基于深度学习的细胞和孢子图像分割方法取得了非常不错的表现,2014年,Long等人提出了全卷积神经网络(FCN),该网络可以直接进行逐像素的端到端图像语义分割,使得深度学习在语义分割领域内产生了突破性进展。随后的几年中,SegNet,DeepLab,以及针对医疗图像设计的语义分割网络U-Net等模型相继出现,在各自的应用场景中取得了瞩目的效果。
目前,小麦白粉病图像分割存在如下问题,由于小麦白粉病孢子图片数据集具有样本少,噪声多,目标小等特点,已有小麦白粉病孢子分割算法分割正确率低,无法对目标孢子进行精确分割,分割结果存在空洞,不能精确地通过图片进行小麦白粉病病害分析。
发明内容
基于上述分析,本发明主要设计了一种语义分割方法,进行小麦白粉病孢子的图像分割。其中主体包括两个网络,一是用于数据增强的对抗式生成网络模型,一个是用于分割目标小麦白粉病孢子的分割网络模型模型。在对分割模型进行训练时,为了弥补训练数据的不足,需要对图像进行相应的预处理以及使用对抗式生成网络模型及仿射变换进行数据增强。同时为了对目标孢子进行语义分割,也需要通过图像掩码提取出小麦白粉病孢子的轮廓实体用于训练。训练与测试所用的数据来自于实验室提供的的小麦白粉病孢子图像数据。
为实现上述目的,本发明采用以下技术方案:为了更好的实现整个方法,选用Python作为方法编写语言。对数据集划分为训练集与测试集。将图像与其对应的掩码图将图像与其对应的掩码图进行数据增强以增加样本,包括:使用OpenCV实现以15°角进行变化的不同角度旋转,加以均值为20-50,均方差为50-100的高斯随机噪声,进行RGB不同通道的亮度变化以及对比度增强处理,以及使用PyTorch实现对抗式生成网络模型的训练及生成孢子图像进行数据增强,PyTorch实现小麦白粉病孢子图像分割网络模型的实现。其中,对抗式生成网络部分采用全卷积神经网络作为架构,分为生成器和判别器两部分,均使用了步长卷积替代确定性的池化操作来进行图像的生成以及判别中的上下采样操作,网络可以学习到空间下采样的过程,应用于生成器和判别器,并且出于提高收敛速度,减少过拟合的目的,取消了判别器最后的全连接层以减少参数,生成器中直接将输入噪声与卷积层特征进行连接,加入了残差模块以提高网络的学习能力,提高生成图像的质量。同时,为了防止数据样本少产生的模式崩坏导致图像缺乏多样性,对于判别器的最后一层去掉Sigmod层,使用Wasserstein距离代替JS散度作为损失函数,生成器和判别器的损失函数不取对数,在每次训练参数更新之后对网络层参数进行谱归一化使其满足Wasserstein距离的连续性要求,并使用RMSProp算法进行动量优化加快收敛速度。对已有的小麦白粉病孢子图像进行训练,进行新的小麦白粉病孢子图像生成。
图像分割网络模型的主要设计架构是经典的编码器—解码器结构。采用U-Net分割网络的设计思路,对输入图片进行四层卷积层的下采样,在获得的512维特征图层后加入了金字塔池化模块,该模块通过将输入特征图进行不同步长的池化,对特征图谱不同的子区域进行抽样,映射形成不同大小的子特征图,将不同级别的特征图进行融合,作为最终的金字塔池化全局特征图输出,用以获取不同细节区域的特征。同时,将下采样编码器中的第四层卷积层与解码器上采样中对应通道数的特征图进行连接,进行进一步的上采样解码,保证深层特征的信息传递和融合,增强网络对深层特征的学习能力。采用L2正则化来防止过拟合,在卷积层后加入批归一化层,并使用Relu作为激活函数。
一种用于小样本图像数据集的小麦白粉病孢子分割方法包括:
步骤1、收集小麦白粉病孢子图像数据集,并对数据集中的数据进行清洗,筛选能够获取包含目标小麦白粉病孢子的图片数据。
步骤2、将小麦白粉病孢子数据集进行掩码标注后,随机划分为训练集和测试集,将图片和掩码同时进行旋转,随机裁剪,添加随机高斯噪声,亮度调整和对比度增强,得到第一批增强数据。
步骤3、构建对抗式生成网络模型,以卷积神经网络作为生成器和判别器架构进行训练和生成,选用生成图片中,与小麦白粉病孢子的形状,颜色特征一致的图片,得到第二批增强数据。
步骤4、构建图像分割模型,在编码器-解码器的结构中加入金字塔池化模块和编、解码器连接结构,对步骤2,步骤3中得到的增强数据以及原训练集数据进行训练。
步骤5、对训练生成的模型对测试集进行测试,采用miou指标最高的模型作为结果。miou的计算方式如下:
Figure BDA0002946081030000041
其中k+1表示包含了背景在内的类别个数,pij表示真实值为i,被误分类成j的像素的数量,则pii表示被正确预测的i类像素的像素数量,pji表示真实值为j,被误分类为i的像素的数量。
作为优选,步骤2采取以下步骤:
步骤2.1对所有数据集图像进行掩码标注
步骤2.2随机按总数7:3比例划分为训练集和测试集
步骤2.3对训练集和测试集中的图像和掩码标注同时进行以15°角为间隔变化的角度旋转。
步骤2.4只对训练集和测试集中的图像进行如下操作:添加均值为20-50,均方差为50-100的高斯噪声,对RGB三通道中的像素矩阵进行直方图均衡以增强对比度,对像素值低于50的像素进行亮度增强,变化为原先像素值的3倍。通过以上方式得到原先样本数量的9-10倍数量大小的增强数据样本。
作为优选,步骤3具体包括以下步骤:
步骤3.1以全卷积神经网络为架构编写生成器由三个上采样部分组成,出于对样本数量及大小的考虑,本文设计的网络仅在第二次和第三次上采样之后加入了残差模块以提升学习能力,提升生成图片的质量,其中用反卷积进行图像的上采样操作,网络先对输入的100维噪声z进行一个上卷积,100维噪声可看成1*1*100的数据,随后通过反卷积生成128维4*4大小的特征图谱,随后通过两个卷积核大小为4*4,卷积步长为2,卷积核为1的反卷积来进行上采样,分别生成64维8*8和32维16*16的特征图谱,8*8特征图后加入带残差结构的两层卷积核大小为3*3的卷积层进行卷积,16*16的特征图谱后加入带残差结构的四层卷积核大小为3*3的卷积层进行卷积,最后通过卷积核大小为5*5,卷积步长为3的上采样后恢复为48*48*3的生成图片,网络中每个卷积层后加入BN批归一化层以及使用ReLu作为激活函数,最后一层用tanh激活函数,并使用Wasserstein距离作为损失函数,生成器Wasserstein距离定义推导见步骤3.2。
步骤3.2编写判别器,判别器分为三次下采样模块,为生成器的逆向结构,输入为48*48*3的图像,下采样卷积至128维特征图谱后,通过全连接层进行输出分类判别,在激活函数的使用上,前三层使用leaky ReLu作为激活函数,最后一层使用Wasserstein距离作为损失函数进行回归,其中Wasserstein距离定义如下:
Figure BDA0002946081030000051
Pdata和Pg分别是描述真实数据和生成数据的分布,W(Pdata,Pg)表示求真实数据分布和生成数据分布的Wasserstein距离,
Figure BDA0002946081030000052
是Pdata和Pg进行组合的联合分布的集合,其每个边缘分布都是Pdata和Pg的一个联合分布,而对于其中的一个子集γ联合分布,可以从符合γ分布的样本对(x,y)~γ中进行随机采样得到一个样本对(x,y),分别对应真实样本和生成样本,并通过计算这对样本对的距离||x-y||,就可以计算γ分布下,样本的距离期望E(x,y)~γ[||x-y||],其中||x-y||为对x和y求欧式距离,当x和y为图像矩阵时,其为矩阵所有元素的差的平方和,对于所有可能γ分布的样本对期望进行求和,inf表示对这些集合取到下界,也就是所有能取到的γ中样本对(x,y)求欧式距离后的最小值,作为分布Pdata和Pg之间的Wasserstein距离。本公式用于生成器和判别器中,即可代入Pdata真实数据集合和Pg生成数据集合之间的距离,将此作为损失函数来进行网络优化,由于此定义中的γ分布无法直接求得,需要进行下一步推导。
可以根据Kantorovich-Rubinstein二元性理论将其写成如下形式,证明过程略过:
Figure BDA0002946081030000061
该公式用来计算测试集中的真实样本数据与生成器生成的样本数据之间的Wasserstein距离,此处引入了Lipschitz连续的概念,Lipschitz连续是指,对连续函数f施加限定条件,其导函数的绝对值不能超过K,K≥0,数学定义为:
|f(x1)-f(x2)|≤K|x1-x2|
x1和x2在公式中表示f函数上任意两点,此时称f的Lipschitz常数为K,公式中||f||L是函数f的Lipschitz常数,sup表示求
Figure BDA0002946081030000062
二者期望差的上确界也就是最大值,在式子中f即表示神经网络对输入x进行映射,其中有来自真实数据的输入x~Pdata及来自网络生成数据的输入x~Pg,公式表示对于满足Lipschitz连续的网络函数f,其Wasserstein距离为使用网络对其输入数据x进行网络映射f后,对两种映射的结果x~Pdataf(x)及x~Pgf(x)求期望后作差,并取其上确界也就是最大值再除以K。在本方法中,用ω表示神经网络中的所有卷积层参数矩阵,f表示神经网络,x~Pdata表示来自训练数据样本集合的样本图片,x~Pg表示来自生成数据样本集合的样本图片,对于判别器,x1和x2为任意测试集真实图像数据,对于生成器,x1和x2为随机的100维高斯噪声,公式可以近似变形为如下求解形式:
Figure BDA0002946081030000063
公式表示生成数据与真实数据的Wasserstein距离的K倍就是对真实数据和生成数据在网络参数为ω的神经网络fω的映射下的输出作期望差并取到的最大值。
由此,可以得出生成器G损失函数公式:
Figure BDA0002946081030000071
判别器D损失函数公式:
Figure BDA0002946081030000072
其中,LG表示生成器的损失函数,LD表示判别器器的损失函数,fω(x)表示参数矩阵为ω的神经网络对输入x的映射,在实际网络中,生成器输入为100维噪声,判别器输入为48*48的三通道孢子图片,ω为网络卷积矩阵参数,
Figure BDA0002946081030000073
为对生成数据的样本x输入其所产生的像素矩阵映射求数学期望。
Figure BDA0002946081030000074
为对真实数据给出的样本x作矩阵映射后求期望。生成器LG的损失函数为对生成的数据样本求期望后取负数,判别器LD的损失函数表示为生成数据与原真实数据的期望作差,max表示对符合限定条件的不同的输入x求出的期望差取最大值,而K的值在本方法中取1,此时通过在步骤3.3中采用谱归一化来使网络函数fω(x)满足Lipschitz连续条件以使用Wasserstein距离作为损失函数。
步骤3.3对生成器和判别器的网络参数进行谱归一化使其满足Wasserstein距离中的Lipschitz连续条件,对于一个神经网络来说,其每一层都可以看成一个线性函数,每一层含有多个神经元,多层神经元的参数构成了神经网络参数矩阵W,而使用Wasserstein距离时,需要满足Lipschitz连续,矩阵映射是一种线性映射,其满足连续条件时,只需要在零点处使其斜率小于K,则在其矩阵所表示线性函数上斜率处处小于K,此时即可满足连续条件,对于判别器,输入x表示测试集真实数据,对于生成器,输入x表示输入的100维噪声数据,网络参数矩阵的谱范数的计算公式如下:
Figure BDA0002946081030000081
式中||W||2为矩阵W的谱范数,||x||2为输入数据x的谱范数,是x的转置共轭矩阵与矩阵x的积的最大特征根的平方根值,||Wx||2为经过网络W的线性映射后得到的输出矩阵的谱范数,是矩阵Wx的转置共轭矩阵与矩阵Wx的积的最大特征根的平方根值,max表示对所有不为0的输入x求出的W谱范数取最大值,由于W的参数会在网络训练开始时进行随机高斯初始化,所以无法直接得到,需要用上式方法进行求解,此时对矩阵W中所有参数进行谱归一化(Spectral Normalization),WSN表示归一化后的矩阵W,:
Figure BDA0002946081030000082
即可将W的谱范数降为1,即各个卷积层参数矩阵的谱范数也为1,此时对于任意第n层网络的映射关系Wn,x,y为任意两个网络输入,生成器的网络输入为100维噪声,判别器的网络输入为测试集真实数据,存在如下关系:
Figure BDA0002946081030000083
此时则对应Lipschitz连续中|f(x1)-f(x2)|≤K|x1-x2|的条件,并可知此时K=1。如果采用正常算法流程,对网络卷积层矩阵的谱范数进行计算需要花费大量的时间和计算量,因此,本方法采用了一种快速估计谱范数算法,幂迭代法来进行谱范数估计。以下为幂迭代法步骤,其中W为网络参数矩阵,(W)T为矩阵的转置,μ为一个初始化矩阵变量,其维度和大小与W矩阵一致,矩阵的所有元素初值为0:
Step1.采用均值为0,方差为1的高斯函数生成随机高斯矩阵变量ν0,用于Step2中进行迭代重复操作,迭代至第k次,其右上角标变为k,即νk,其维数及矩阵大小与W网络参数矩阵相同,矩阵参数值为均值为0,方差为1的高斯函数进行生成。
Step2.对如下操作重复k次,实验中k为网络损失函数稳定收敛所需训练次数,网络损失函数值会随着训练进行波动下降,当其函数值改变不超过其本身值的2%时可以判定为收敛,在本方法实验中设为1000,即网络训练1000次可达到稳定收敛状态,实际可根据不同数据图片训练过程中,损失函数收敛稳定时所需训练次数来决定。μk及νk表示第k次迭代后的μ和ν矩阵。
令μk←Wνk,对μk进行正则化:
Figure BDA0002946081030000091
令νk←(W)Tμk,对νk进行正则化:
Figure BDA0002946081030000092
Step3.||W||2=(μk)TWvk
||μk||,||νk||为对矩阵μk和νk进行正则化操作,即对矩阵中所有元素进行平方后求和,再开根号,Step2中的步骤需要迭代重复k次,当迭代至第k次时,步骤表示将对第k次迭代后的矩阵ν左乘网络参数矩阵W,将其值赋给第k次迭代过程的矩阵μk,然后对μk进行正则化,之后,将得到的μk左乘网络参数矩阵的转置WT并将其值赋给矩阵μk,然后对νk进行正则化操作,在进行迭代至网络损失函数值稳定收敛后,μk就是该矩阵谱范数所对应的特征向量,最后在Step3中,将矩阵W左乘μk的转置再右乘矩阵νk即可得到W的谱范数,而在实际训练中,只要在每次训练过程后进行一次迭代操作,即可随着网络的训练,对奇异值的估计求解越来越趋向最终值,求得W的谱范数后,对矩阵中的参数进行谱归一化。
步骤3.4对训练集中的数据进行裁剪,用固定大小的裁剪框裁剪出每幅图中只含单个目标孢子的图片,对于小麦白粉病孢子采用框为48*48大小,保证每张图片中仅有一个目标白粉病孢子。
步骤3.5将得到的图片进行训练,采用RmsProp算法进行损失函数的优化,生成指定数量孢子图片。
步骤3.6对生成的孢子图片进行筛选,原小麦白粉病孢子为椭圆状,长宽比1.5-2的浅色孢子,挑选与原小麦白粉病孢子在颜色和形状上相似的孢子图片,覆盖至原图中裁剪部分,以得到一批新的小麦白粉病孢子图片进行数据增强。
作为优选,步骤4具体包括以下步骤:
步骤4.1搭建编码器-解码器网络架构,编码器为四层卷积下采样,输入为归一化后的256*256的图片,每一层均采用用3*3,步长为1的卷积核,第一层网络将3通道256*256的图片卷积为64*128*128的特征图,第二层卷积后生成128*64*64的特征图,第三层卷积生成256*32*32的特征图,第四层卷积生成512*16*16的512维特征图,以提取不同层次的特征信息。解码器为五层反卷积上采样,采用padding操作来进行边缘补充,以能够恢复原尺寸大小,与编码器相对应。
步骤4.2在编码器的第四层卷积层和解码器的卷积层之间加入连接结构,将第四层的编码器卷积特征矩阵与解码器第五层反卷积至第四层的特征矩阵信息进行矩阵维数的融合后,再进行一次卷积上采样。
步骤4.3在编码器第五层卷积层后加入金字塔池化模块,该模块相比于金字塔池化网络将多层特征图进行单个步长的池化后融合的算法,采用了只将第四层特征图进行不同步长池化的策略,池化卷积核大小为2*2,进行步长尺寸为2,4,6,13的池化卷积,这样可以在16*16大小的特征图中,生成多尺度的特征组合,以提取多尺度下的特征,结合第四层的连结结构,能够有效提高对小目标的特征提取和学习效果。
步骤4.4对步骤2,步骤3中得到的增强数据以及原训练集数据进行训练。
与现有技术相比,本发明具有以下优势:
本发明关注小样本,小目标的图像数据集的分割任务,所提出的方法包括采用传统的仿射变换及对抗式生成网络共同进行数据增强,以增强样本量,以达到能够在小样本的数据集使用神经网络进行训练的目的,同时,加入了金字塔池化模块以提取更多感受野尺寸下的维度特征,加入编解码器之间第四层卷积层的连接结构,增强对深层特征的提取能力,可以减少对浅层特征的过多学习,避免对类似边缘和颜色的噪声进行分割,总体来说,本发明可以实现对小麦白粉病孢子的有效准确分割。
附图说明:
图1为本发明所提出对抗式生成网络的生成器架构图;其中conv为卷积,k=n表示卷积核大小为n*n,s为卷积步长,p为使用边界填充的数量。128,64,32等为特征图谱的维度,128*4*4中,128为特征图维度,4*4为特征图大小,64*8*8中,64为特征图维度,8*8为特征图大小。同理,32*16*16中32为特征图维度,16*16为特征图大小。
图2为本发明所提出对抗式生成网络的判别器架构图;其中conv为卷积,k=n表示卷积核大小为n*n,s为卷积步长,p为使用边界填充的数量。128,64,32等框中数字为特征图谱的维度,128*4*4中,128为特征图维度,4*4为特征图大小,64*8*8中,64为特征图维度,8*8为特征图大小。同理,32*16*16中32为特征图维度,16*16为特征图大小。3*48*48为三通道48*48大小图片。
图3为本发明设计的语义分割网络结构;
图4为金字塔池化模块;
具体实施方式
以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明提供一种小样本图像数据集的小麦白粉病分割方法,具体包括以下步骤:
本发明所用到的硬件设备有PC机1台、1050ti显卡1个;
步骤1、收集小麦白粉病孢子图像数据集,并对数据集中的数据进行清洗,筛选能够获取有效信息(包含目标孢子)的图片数据。
步骤2、将小麦白粉病孢子数据集进行掩码标注后,随机划分为训练集和测试集,将图片和掩码同时进行旋转,随机裁剪,添加随机高斯噪声,亮度调整和对比度增强,得到第一批增强数据。
步骤2.1对所有数据集图像进行掩码标注
步骤2.2随机按总数7:3比例划分为训练集和测试集
步骤2.3对训练集和测试集中的图像和掩码标注同时进行以15°角为间隔变化的角度旋转。
步骤2.4只对训练集和测试集中的图像进行如下操作:添加均值为20-50,均方差为50-100的高斯噪声,对RGB三通道中的像素矩阵进行直方图均衡以增强对比度,对像素值低于50的像素进行亮度增强,变化为原先像素值的3倍。通过以上方式得到原先样本数量的9-10倍数量大小的增强数据样本。
步骤3、构建对抗式生成网络模型,以卷积神经网络作为生成器和判别器架构进行训练和生成,选用生成图片中,孢子特征(形状,颜色等)符合要求的图片,得到第二批增强数据。
步骤3.1以全卷积神经网络为架构编写生成器由三个上采样部分组成,出于对样本数量及大小的考虑,本文设计的网络仅在第二次和第三次上采样之后加入了残差模块以提升学习能力,提升生成图片的质量,其中用反卷积进行图像的上采样操作,网络先对输入的100维噪声z进行一个上卷积,100维噪声可看成1*1*100的数据,随后通过反卷积生成128维4*4大小的特征图谱,随后通过两个卷积核大小为4*4,卷积步长为2,卷积核为1的反卷积来进行上采样,分别生成64维8*8和32维16*16的特征图谱,8*8特征图后加入带残差结构的两层卷积核大小为3*3的卷积层进行卷积,16*16的特征图谱后加入带残差结构的四层卷积核大小为3*3的卷积层进行卷积,最后通过卷积核大小为5*5,卷积步长为3的上采样后恢复为48*48*3的生成图片,网络中每个卷积层后加入BN批归一化层以及使用ReLu作为激活函数,最后一层用tanh激活函数,并使用Wasserstein距离作为损失函数,生成器Wasserstein距离定义推导见步骤3.2。
步骤3.2编写判别器,判别器分为三次下采样模块,为生成器的逆向结构,输入为48*48*3的图像,下采样卷积至128维特征图谱后,通过全连接层进行输出分类判别,在激活函数的使用上,前三层使用leaky ReLu作为激活函数,最后一层使用Wasserstein距离作为损失函数进行回归,其中Wasserstein距离定义如下:
Figure BDA0002946081030000131
Pdata和Pg分别是描述真实数据和生成数据的分布,W(Pdata,Pg)表示求真实数据分布和生成数据分布的Wasserstein距离,
Figure BDA0002946081030000132
是Pdata和Pg进行组合的联合分布的集合,其每个边缘分布都是Pdata和Pg的一个联合分布,而对于其中的一个子集γ联合分布,可以从符合γ分布的样本对(x,y)~γ中进行随机采样得到一个样本对(x,y),分别对应真实样本和生成样本,并通过计算这对样本对的距离||x-y||,就可以计算γ分布下,样本的距离期望E(x,y)~γ[||x-y||],其中||x-y||为对x和y求欧式距离,当x和y为图像矩阵时,其为矩阵所有元素的差的平方和,对于所有可能γ分布的样本对期望进行求和,inf表示对这些集合取到下界,也就是所有能取到的γ中样本对(x,y)求欧式距离后的最小值,作为分布Pdata和Pg之间的Wasserstein距离。本公式用于生成器和判别器中,即可代入Pdata真实数据集合和Pg生成数据集合之间的距离,将此作为损失函数来进行网络优化,由于此定义中的γ分布无法直接求得,需要进行下一步推导。
可以根据Kantorovich-Rubinstein二元性理论将其写成如下形式,证明过程略过:
Figure BDA0002946081030000142
该公式用来计算测试集中的真实样本数据与生成器生成的样本数据之间的Wasserstein距离,此处引入了Lipschitz连续的概念,Lipschitz连续是指,对连续函数f施加限定条件,其导函数的绝对值不能超过K,K≥0,数学定义为:
|f(x1)-f(x2)|≤K|x1-x2|
x1和x2在公式中表示f函数上任意两点,此时称f的Lipschitz常数为K,公式中||f||L是函数f的Lipschitz常数,sup表示求
Figure BDA0002946081030000141
二者期望差的上确界也就是最大值,在式子中f即表示神经网络对输入x进行映射,其中有来自真实数据的输入x~Pdata及来自网络生成数据的输入x~Pg,公式表示对于满足Lipschitz连续的网络函数f,其Wasserstein距离为使用网络对其输入数据x进行网络映射f后,对两种映射的结果x~Pdataf(x)及x~Pgf(x)求期望后作差,并取其上确界也就是最大值再除以K。在本方法中,用ω表示神经网络中的所有卷积层参数矩阵,f表示神经网络,x~Pdata表示来自训练数据样本集合的样本图片,x~Pg表示来自生成数据样本集合的样本图片,对于判别器,x1和x2为任意测试集真实图像数据,对于生成器,x1和x2为随机的100维高斯噪声,公式可以近似变形为如下求解形式:
Figure BDA0002946081030000151
公式表示生成数据与真实数据的Wasserstein距离的K倍就是对真实数据和生成数据在网络参数为ω的神经网络fω的映射下的输出作期望差并取到的最大值。
由此,可以得出生成器G损失函数公式:
Figure BDA0002946081030000152
判别器D损失函数公式:
Figure BDA0002946081030000153
其中,LG表示生成器的损失函数,LD表示判别器器的损失函数,fω(x)表示参数矩阵为ω的神经网络对输入x的映射,在实际网络中,生成器输入为100维噪声,判别器输入为48*48的三通道孢子图片,ω为网络卷积矩阵参数,
Figure BDA0002946081030000154
为对生成数据的样本x输入其所产生的像素矩阵映射求数学期望。
Figure BDA0002946081030000155
为对真实数据给出的样本x作矩阵映射后求期望。生成器LG的损失函数为对生成的数据样本求期望后取负数,判别器LD的损失函数表示为生成数据与原真实数据的期望作差,max表示对符合限定条件的不同的输入x求出的期望差取最大值,而K的值在本方法中取1,此时通过在步骤3.3中采用谱归一化来使网络函数fω(x)满足Lipschitz连续条件以使用Wasserstein距离作为损失函数。
步骤3.3对生成器和判别器的网络参数进行谱归一化使其满足Wasserstein距离中的Lipschitz连续条件,对于一个神经网络来说,其每一层都可以看成一个线性函数,每一层含有多个神经元,多层神经元的参数构成了神经网络参数矩阵W,而使用Wasserstein距离时,需要满足Lipschitz连续,矩阵映射是一种线性映射,其满足连续条件时,只需要在零点处使其斜率小于K,则在其矩阵所表示线性函数上斜率处处小于K,此时即可满足连续条件,对于判别器,输入x表示测试集真实数据,对于生成器,输入x表示输入的100维噪声数据,网络参数矩阵的谱范数的计算公式如下:
Figure BDA0002946081030000161
式中||W||2为矩阵W的谱范数,||x||2为输入数据x的谱范数,是x的转置共轭矩阵与矩阵x的积的最大特征根的平方根值,||Wx||2为经过网络W的线性映射后得到的输出矩阵的谱范数,是矩阵Wx的转置共轭矩阵与矩阵Wx的积的最大特征根的平方根值,max表示对所有不为0的输入x求出的W谱范数取最大值,由于W的参数会在网络训练开始时进行随机高斯初始化,所以无法直接得到,需要用上式方法进行求解,此时对矩阵W中所有参数进行谱归一化(Spectral Normalization),WSN表示归一化后的矩阵W,:
Figure BDA0002946081030000162
即可将W的谱范数降为1,即各个卷积层参数矩阵的谱范数也为1,此时对于任意第n层网络的映射关系Wn,x,y为任意两个网络输入,生成器的网络输入为100维噪声,判别器的网络输入为测试集真实数据,存在如下关系:
Figure BDA0002946081030000171
此时则对应Lipschitz连续中|f(x1)-f(x2)|≤K|x1-x2|的条件,并可知此时K=1。如果采用正常算法流程,对网络卷积层矩阵的谱范数进行计算需要花费大量的时间和计算量,因此,本方法采用了一种快速估计谱范数算法,幂迭代法来进行谱范数估计。以下为幂迭代法步骤,其中W为网络参数矩阵,(W)T为矩阵的转置,μ为一个初始化矩阵变量,其维度和大小与W矩阵一致,矩阵的所有元素初值为0:
Step1.采用均值为0,方差为1的高斯函数生成随机高斯矩阵变量ν0,用于Step2中进行迭代重复操作,迭代至第k次,其右上角标变为k,即νk,其维数及矩阵大小与W网络参数矩阵相同,矩阵参数值为均值为0,方差为1的高斯函数进行生成。
Step2.对如下操作重复k次,实验中k为网络损失函数稳定收敛所需训练次数,网络损失函数值会随着训练进行波动下降,当其函数值改变不超过其本身值的2%时可以判定为收敛,在本方法实验中设为1000,即网络训练1000次可达到稳定收敛状态,实际可根据不同数据图片训练过程中,损失函数收敛稳定时所需训练次数来决定。μk及νk表示第k次迭代后的μ和ν矩阵。
令μk←Wνk,对μk进行正则化:
Figure BDA0002946081030000172
令νk←(W)Tμk,对νk进行正则化:
Figure BDA0002946081030000173
Step3.||W||2=(μk)TWvk
||μk||,||νk||为对矩阵μk和νk进行正则化操作,即对矩阵中所有元素进行平方后求和,再开根号,Step2中的步骤需要迭代重复k次,当迭代至第k次时,步骤表示将对第k次迭代后的矩阵ν左乘网络参数矩阵W,将其值赋给第k次迭代过程的矩阵μk,然后对μk进行正则化,之后,将得到的μk左乘网络参数矩阵的转置WT并将其值赋给矩阵μk,然后对νk进行正则化操作,在进行迭代至网络损失函数值稳定收敛后,μk就是该矩阵谱范数所对应的特征向量,最后在Step3中,将矩阵W左乘μk的转置再右乘矩阵νk即可得到W的谱范数,而在实际训练中,只要在每次训练过程后进行一次迭代操作,即可随着网络的训练,对奇异值的估计求解越来越趋向最终值,求得W的谱范数后,对矩阵中的参数进行谱归一化。
步骤3.4对训练集中的数据进行裁剪,用固定大小的裁剪框裁剪出每幅图中只含单个目标孢子的图片,对于小麦白粉病孢子采用框为48*48大小,保证每张图片中仅有一个目标白粉病孢子。
步骤3.5将得到的图片进行训练,采用RmsProp算法进行损失函数的优化,生成指定数量孢子图片。
步骤3.6对生成的孢子图片进行筛选,原小麦白粉病孢子为椭圆状,长宽比1.5-2的浅色孢子,挑选与原小麦白粉病孢子在颜色和形状上相似的孢子图片,覆盖至原图中裁剪部分,以得到一批新的小麦白粉病孢子图片进行数据增强。
步骤4、构建图像分割模型,在编码器-解码器的结构中加入金字塔池化模块和编、解码器连接结构,对步骤2,步骤3中得到的增强数据以及原训练集数据进行训练。
步骤4.1搭建编码器-解码器网络架构,编码器为四层卷积下采样,输入为归一化后的256*256的图片,每一层均采用用3*3,步长为1的卷积核,第一层网络将3通道256*256的图片卷积为64*128*128的特征图,第二层卷积后生成128*64*64的特征图,第三层卷积生成256*32*32的特征图,第四层卷积生成512*16*16的512维特征图,以提取不同层次的特征信息。解码器为五层反卷积上采样,采用padding操作来进行边缘补充,以能够恢复原尺寸大小,与编码器相对应。
步骤4.2在编码器的第四层卷积层和解码器的卷积层之间加入连接结构,将第四层的编码器卷积特征矩阵与解码器第五层反卷积至第四层的特征矩阵信息进行矩阵维数的融合后,再进行一次卷积上采样。
步骤4.3在编码器第五层卷积层后加入金字塔池化模块,该模块相比于金字塔池化网络将多层特征图进行单个步长的池化后融合的算法,采用了只将第四层特征图进行不同步长池化的策略,池化卷积核大小为2*2,进行步长尺寸为2,4,6,13的池化卷积,这样可以在16*16大小的特征图中,生成多尺度的特征组合,以提取多尺度下的特征,结合第四层的连结结构,能够有效提高对小目标的特征提取和学习效果。
步骤4.4对步骤2,步骤3中得到的增强数据以及原训练集数据进行训练。
步骤5对训练生成的模型对测试集进行测试,采用miou指标最高的模型作为结果。miou的计算方式如下:
Figure BDA0002946081030000191
其中k+1表示包含了背景在内的类别个数,pij表示真实值为i,被误分类成j的像素的数量,则pii表示被正确预测的i类像素的像素数量,pji表示真实值为j,被误分类为i的像素的数量。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。

Claims (4)

1.一种用于小样本图像数据集的小麦白粉病孢子分割方法,其特征在于,包括:
步骤1、收集小麦白粉病孢子图像数据集,并对数据集中的数据进行清洗,筛选能够获取包含目标小麦白粉病孢子的图片数据;
步骤2、将小麦白粉病孢子数据集进行掩码标注后,随机划分为训练集和测试集,将图片和掩码同时进行旋转,随机裁剪,添加随机高斯噪声,亮度调整和对比度增强,得到第一批增强数据;
步骤3、构建对抗式生成网络模型,以卷积神经网络作为生成器和判别器架构进行训练和生成,选用生成图片中,与小麦白粉病孢子的形状,颜色特征一致的图片,得到第二批增强数据;
步骤4、构建图像分割模型,在编码器-解码器的结构中加入金字塔池化模块和编、解码器连接结构,对步骤2,步骤3中得到的增强数据以及原训练集数据进行训练;
步骤5、对训练生成的模型对测试集进行测试,采用miou指标最高的模型作为结果;miou的计算方式如下:
Figure FDA0002946081020000011
其中k+1表示包含了背景在内的类别个数,pij表示真实值为i,被误分类成j的像素的数量,则pii表示被正确预测的i类像素的像素数量,pji表示真实值为j,被误分类为i的像素的数量。
2.根据权利要求1所述的一种用于小样本图像数据集的小麦白粉病孢子分割方法,其特征在于,步骤2采取以下步骤:
步骤2.1对所有数据集图像进行掩码标注
步骤2.2随机按总数7:3比例划分为训练集和测试集
步骤2.3对训练集和测试集中的图像和掩码标注同时进行以15°角为间隔变化的角度旋转;
步骤2.4只对训练集和测试集中的图像进行如下操作:添加均值为20-50,均方差为50-100的高斯噪声,对RGB三通道中的像素矩阵进行直方图均衡以增强对比度,对像素值低于50的像素进行亮度增强,变化为原先像素值的3倍;通过以上方式得到原先样本数量的9-10倍数量大小的增强数据样本。
3.根据权利要求1所述的一种用于小样本图像数据集的小麦白粉病孢子分割方法,其特征在于,步骤3具体包括以下步骤:
步骤3.1以全卷积神经网络为架构编写生成器由三个上采样部分组成,出于对样本数量及大小的考虑,本文设计的网络仅在第二次和第三次上采样之后加入了残差模块以提升学习能力,提升生成图片的质量,其中用反卷积进行图像的上采样操作,网络先对输入的100维噪声z进行一个上卷积,100维噪声可看成1*1*100的数据,随后通过反卷积生成128维4*4大小的特征图谱,随后通过两个卷积核大小为4*4,卷积步长为2,卷积核为1的反卷积来进行上采样,分别生成64维8*8和32维16*16的特征图谱,8*8特征图后加入带残差结构的两层卷积核大小为3*3的卷积层进行卷积,16*16的特征图谱后加入带残差结构的四层卷积核大小为3*3的卷积层进行卷积,最后通过卷积核大小为5*5,卷积步长为3的上采样后恢复为48*48*3的生成图片,网络中每个卷积层后加入BN批归一化层以及使用ReLu作为激活函数,最后一层用tanh激活函数,并使用Wasserstein距离作为损失函数,生成器Wasserstein距离定义推导见步骤3.2;
步骤3.2编写判别器,判别器分为三次下采样模块,为生成器的逆向结构,输入为48*48*3的图像,下采样卷积至128维特征图谱后,通过全连接层进行输出分类判别,在激活函数的使用上,前三层使用leaky ReLu作为激活函数,最后一层使用Wasserstein距离作为损失函数进行回归,其中Wasserstein距离定义如下:
Figure FDA0002946081020000021
Pdata和Pg分别是描述真实数据和生成数据的分布,W(Pdata,Pg)表示求真实数据分布和生成数据分布的Wasserstein距离,
Figure FDA0002946081020000022
是Pdata和Pg进行组合的联合分布的集合,其每个边缘分布都是Pdata和Pg的一个联合分布,而对于其中的一个子集γ联合分布,从符合γ分布的样本对(x,y)~γ中进行随机采样得到一个样本对(x,y),分别对应真实样本和生成样本,并通过计算这对样本对的距离||x-y||,就计算γ分布下,样本的距离期望E(x,y)~γ[||x-y||],其中||x-y||为对x和y求欧式距离,当x和y为图像矩阵时,其为矩阵所有元素的差的平方和,对于所有可能γ分布的样本对期望进行求和,inf表示对这些集合取到下界,也就是所有能取到的γ中样本对(x,y)求欧式距离后的最小值,作为分布Pdata和Pg之间的Wasserstein距离;本公式用于生成器和判别器中,即可代入Pdata真实数据集合和Pg生成数据集合之间的距离,将此作为损失函数来进行网络优化,由于此定义中的γ分布无法直接求得,需要进行下一步推导;
根据Kantorovich-Rubinstein二元性理论将其写成如下形式:
Figure FDA0002946081020000031
该公式用来计算测试集中的真实样本数据与生成器生成的样本数据之间的Wasserstein距离,此处引入了Lipschitz连续的概念,Lipschitz连续是指,对连续函数f施加限定条件,其导函数的绝对值不能超过K,K≥0,数学定义为:
|f(x1)-f(x2)|≤K|x1-x2|
x1和x2在公式中表示f函数上任意两点,此时称f的Lipschitz常数为K,公式中||f||L是函数f的Lipschitz常数,sup表示求
Figure FDA0002946081020000032
二者期望差的上确界也就是最大值,在式子中f即表示神经网络对输入x进行映射,其中有来自真实数据的输入x~Pdata及来自网络生成数据的输入x~Pg,公式表示对于满足Lipschitz连续的网络函数f,其Wasserstein距离为使用网络对其输入数据x进行网络映射f后,对两种映射的结果x~Pdataf(x)及x~Pgf(x)求期望后作差,并取其上确界也就是最大值再除以K;在本方法中,用ω表示神经网络中的所有卷积层参数矩阵,f表示神经网络,x~Pdata表示来自训练数据样本集合的样本图片,x~Pg表示来自生成数据样本集合的样本图片,对于判别器,x1和x2为任意测试集真实图像数据,对于生成器,x1和x2为随机的100维高斯噪声,公式近似变形为如下求解形式:
Figure FDA0002946081020000041
公式表示生成数据与真实数据的Wasserstein距离的K倍就是对真实数据和生成数据在网络参数为ω的神经网络fω的映射下的输出作期望差并取到的最大值;
由此,得出生成器G损失函数公式:
Figure FDA0002946081020000042
判别器D损失函数公式:
Figure FDA0002946081020000043
其中,LG表示生成器的损失函数,LD表示判别器器的损失函数,fω(x)表示参数矩阵为ω的神经网络对输入x的映射,在实际网络中,生成器输入为100维噪声,判别器输入为48*48的三通道孢子图片,ω为网络卷积矩阵参数,
Figure FDA0002946081020000044
为对生成数据的样本x输入其所产生的像素矩阵映射求数学期望;
Figure FDA0002946081020000045
为对真实数据给出的样本x作矩阵映射后求期望;生成器LG的损失函数为对生成的数据样本求期望后取负数,判别器LD的损失函数表示为生成数据与原真实数据的期望作差,max表示对符合限定条件的不同的输入x求出的期望差取最大值,而K的值在本方法中取1,此时通过在步骤3.3中采用谱归一化来使网络函数fω(x)满足Lipschitz连续条件以使用Wasserstein距离作为损失函数;
步骤3.3对生成器和判别器的网络参数进行谱归一化使其满足Wasserstein距离中的Lipschitz连续条件,对于一个神经网络来说,其每一层都看成一个线性函数,每一层含有多个神经元,多层神经元的参数构成了神经网络参数矩阵W,而使用Wasserstein距离时,需要满足Lipschitz连续,矩阵映射是一种线性映射,其满足连续条件时,只需要在零点处使其斜率小于K,则在其矩阵所表示线性函数上斜率处处小于K,此时即可满足连续条件,对于判别器,输入x表示测试集真实数据,对于生成器,输入x表示输入的100维噪声数据,网络参数矩阵的谱范数的计算公式如下:
Figure FDA0002946081020000051
式中||W||2为矩阵W的谱范数,||x||2为输入数据x的谱范数,是x的转置共轭矩阵与矩阵x的积的最大特征根的平方根值,||Wx||2为经过网络W的线性映射后得到的输出矩阵的谱范数,是矩阵Wx的转置共轭矩阵与矩阵Wx的积的最大特征根的平方根值,max表示对所有不为0的输入x求出的W谱范数取最大值,由于W的参数会在网络训练开始时进行随机高斯初始化,所以无法直接得到,需要用上式方法进行求解,此时对矩阵W中所有参数进行谱归一化(Spectral Normalization),WSN表示归一化后的矩阵W,:
Figure FDA0002946081020000061
将W的谱范数降为1,即各个卷积层参数矩阵的谱范数也为1,此时对于任意第n层网络的映射关系Wn,x,y为任意两个网络输入,生成器的网络输入为100维噪声,判别器的网络输入为测试集真实数据,存在如下关系:
Figure FDA0002946081020000062
此时则对应Lipschitz连续中|f(x1)-f(x2)|≤K|x1-x2|的条件,并可知此时K=1;如果采用正常算法流程,对网络卷积层矩阵的谱范数进行计算需要花费大量的时间和计算量,采用了一种快速估计谱范数算法,幂迭代法来进行谱范数估计;以下为幂迭代法步骤,其中W为网络参数矩阵,(W)T为矩阵的转置,μ为一个初始化矩阵变量,其维度和大小与W矩阵一致,矩阵的所有元素初值为0:
Step1.采用均值为0,方差为1的高斯函数生成随机高斯矩阵变量ν0,用于Step2中进行迭代重复操作,迭代至第k次,其右上角标变为k,即νk,其维数及矩阵大小与W网络参数矩阵相同,矩阵参数值为均值为0,方差为1的高斯函数进行生成;
Step2.对如下操作重复k次,实验中k为网络损失函数稳定收敛所需训练次数,网络损失函数值会随着训练进行波动下降,当其函数值改变不超过其本身值的2%时判定为收敛;μk及νk表示第k次迭代后的μ和ν矩阵;
令μk←Wνk,对μk进行正则化:
Figure FDA0002946081020000063
令νk←(W)Tμk,对νk进行正则化:
Figure FDA0002946081020000071
Step3.||W||2=(μk)TWvk
||μk||,||νk||为对矩阵μk和νk进行正则化操作,即对矩阵中所有元素进行平方后求和,再开根号,Step2中的步骤需要迭代重复k次,当迭代至第k次时,步骤表示将对第k次迭代后的矩阵ν左乘网络参数矩阵W,将其值赋给第k次迭代过程的矩阵μk,然后对μk进行正则化,之后,将得到的μk左乘网络参数矩阵的转置WT并将其值赋给矩阵μk,然后对νk进行正则化操作,在进行迭代至网络损失函数值稳定收敛后,μk就是该矩阵谱范数所对应的特征向量,最后在Step3中,将矩阵W左乘μk的转置再右乘矩阵νk得到W的谱范数;
步骤3.4对训练集中的数据进行裁剪,用固定大小的裁剪框裁剪出每幅图中只含单个目标孢子的图片,对于小麦白粉病孢子采用框为48*48大小,保证每张图片中仅有一个目标白粉病孢子;
步骤3.5将得到的图片进行训练,采用RmsProp算法进行损失函数的优化,生成指定数量孢子图片;
步骤3.6对生成的孢子图片进行筛选,原小麦白粉病孢子为椭圆状,长宽比1.5-2的浅色孢子,挑选与原小麦白粉病孢子在颜色和形状上相似的孢子图片,覆盖至原图中裁剪部分,以得到一批新的小麦白粉病孢子图片进行数据增强。
4.根据权利要求1所述的一种用于小样本图像数据集的小麦白粉病孢子分割方法,其特征在于,步骤4具体包括以下步骤:
步骤4.1搭建编码器-解码器网络架构,编码器为四层卷积下采样,输入为归一化后的256*256的图片,每一层均采用用3*3,步长为1的卷积核,第一层网络将3通道256*256的图片卷积为64*128*128的特征图,第二层卷积后生成128*64*64的特征图,第三层卷积生成256*32*32的特征图,第四层卷积生成512*16*16的512维特征图,以提取不同层次的特征信息;解码器为五层反卷积上采样,采用padding操作来进行边缘补充,恢复原尺寸大小,与编码器相对应;
步骤4.2在编码器的第四层卷积层和解码器的卷积层之间加入连接结构,将第四层的编码器卷积特征矩阵与解码器第五层反卷积至第四层的特征矩阵信息进行矩阵维数的融合后,再进行一次卷积上采样;
步骤4.3在编码器第五层卷积层后加入金字塔池化模块,该模块相比于金字塔池化网络将多层特征图进行单个步长的池化后融合的算法,采用了只将第四层特征图进行不同步长池化的策略,池化卷积核大小为2*2,进行步长尺寸为2,4,6,13的池化卷积,这样在16*16大小的特征图中,生成多尺度的特征组合,以提取多尺度下的特征,结合第四层的连结结构;
步骤4.4对步骤2,步骤3中得到的增强数据以及原训练集数据进行训练。
CN202110194041.9A 2021-02-21 2021-02-21 一种用于小样本图像数据集的小麦白粉病孢子分割方法 Active CN112862792B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110194041.9A CN112862792B (zh) 2021-02-21 2021-02-21 一种用于小样本图像数据集的小麦白粉病孢子分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110194041.9A CN112862792B (zh) 2021-02-21 2021-02-21 一种用于小样本图像数据集的小麦白粉病孢子分割方法

Publications (2)

Publication Number Publication Date
CN112862792A true CN112862792A (zh) 2021-05-28
CN112862792B CN112862792B (zh) 2024-04-05

Family

ID=75989697

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110194041.9A Active CN112862792B (zh) 2021-02-21 2021-02-21 一种用于小样本图像数据集的小麦白粉病孢子分割方法

Country Status (1)

Country Link
CN (1) CN112862792B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392906A (zh) * 2021-06-16 2021-09-14 西华大学 基于图像高阶引导编码重组的对抗样本恢复方法及系统
CN113436155A (zh) * 2021-06-16 2021-09-24 复旦大学附属华山医院 基于深度学习的超声臂丛神经图像识别方法
CN113628260A (zh) * 2021-07-05 2021-11-09 中国科学院深圳先进技术研究院 一种图像配准方法、装置、终端设备和存储介质
CN113822880A (zh) * 2021-11-22 2021-12-21 中南大学 一种基于深度学习的裂缝识别方法
CN113870371A (zh) * 2021-12-03 2021-12-31 浙江霖研精密科技有限公司 基于生成对抗网络的图片颜色变换装置、方法和存储介质
CN114648724A (zh) * 2022-05-18 2022-06-21 成都航空职业技术学院 一种基于生成对抗网络的轻量化高效目标分割与计数方法
CN114819149A (zh) * 2022-06-28 2022-07-29 深圳比特微电子科技有限公司 基于变换神经网络的数据处理方法、装置和介质
CN117094897A (zh) * 2023-10-20 2023-11-21 广东工业大学 一种相衬光学相干弹性成像的超分辨相位梯度估计方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200134375A1 (en) * 2017-08-01 2020-04-30 Beijing Sensetime Technology Development Co., Ltd. Semantic segmentation model training methods and apparatuses, electronic devices, and storage media
CN112070209A (zh) * 2020-08-13 2020-12-11 河北大学 基于w距离的稳定可控图像生成模型训练方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200134375A1 (en) * 2017-08-01 2020-04-30 Beijing Sensetime Technology Development Co., Ltd. Semantic segmentation model training methods and apparatuses, electronic devices, and storage media
CN112070209A (zh) * 2020-08-13 2020-12-11 河北大学 基于w距离的稳定可控图像生成模型训练方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XINSHEN LIANG 等: "Wheat Powdery Mildew Spore Images Segmentation Based on U-Net", JOURNAL OF PHYSICS: CONFERENCE SERIES, 7 November 2020 (2020-11-07), pages 1 - 6 *
康飞龙 等: "多类农作物病虫害的图像识别应用技术研究综述", 江苏农业科学, vol. 48, no. 22, 31 December 2020 (2020-12-31), pages 22 - 27 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392906B (zh) * 2021-06-16 2022-04-22 西华大学 基于图像高阶引导编码重组的对抗样本恢复方法及系统
CN113436155A (zh) * 2021-06-16 2021-09-24 复旦大学附属华山医院 基于深度学习的超声臂丛神经图像识别方法
CN113392906A (zh) * 2021-06-16 2021-09-14 西华大学 基于图像高阶引导编码重组的对抗样本恢复方法及系统
CN113436155B (zh) * 2021-06-16 2023-12-19 复旦大学附属华山医院 基于深度学习的超声臂丛神经图像识别方法
CN113628260A (zh) * 2021-07-05 2021-11-09 中国科学院深圳先进技术研究院 一种图像配准方法、装置、终端设备和存储介质
CN113822880A (zh) * 2021-11-22 2021-12-21 中南大学 一种基于深度学习的裂缝识别方法
CN113870371B (zh) * 2021-12-03 2022-02-15 浙江霖研精密科技有限公司 基于生成对抗网络的图片颜色变换装置、方法和存储介质
CN113870371A (zh) * 2021-12-03 2021-12-31 浙江霖研精密科技有限公司 基于生成对抗网络的图片颜色变换装置、方法和存储介质
CN114648724A (zh) * 2022-05-18 2022-06-21 成都航空职业技术学院 一种基于生成对抗网络的轻量化高效目标分割与计数方法
CN114648724B (zh) * 2022-05-18 2022-08-12 成都航空职业技术学院 一种基于生成对抗网络的轻量化高效目标分割与计数方法
CN114819149A (zh) * 2022-06-28 2022-07-29 深圳比特微电子科技有限公司 基于变换神经网络的数据处理方法、装置和介质
CN117094897A (zh) * 2023-10-20 2023-11-21 广东工业大学 一种相衬光学相干弹性成像的超分辨相位梯度估计方法
CN117094897B (zh) * 2023-10-20 2024-02-02 广东工业大学 一种相衬光学相干弹性成像的超分辨相位梯度估计方法

Also Published As

Publication number Publication date
CN112862792B (zh) 2024-04-05

Similar Documents

Publication Publication Date Title
CN112862792B (zh) 一种用于小样本图像数据集的小麦白粉病孢子分割方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN108537102B (zh) 基于稀疏特征与条件随机场的高分辨sar图像分类方法
CN110059586B (zh) 一种基于空洞残差注意力结构的虹膜定位分割系统
Jia et al. A regularized convolutional neural network for semantic image segmentation
CN110032925B (zh) 一种基于改进胶囊网络与算法的手势图像分割与识别方法
CN112837344B (zh) 一种基于条件对抗生成孪生网络的目标跟踪方法
CN109033978B (zh) 一种基于纠错策略的cnn-svm混合模型手势识别方法
CN111815665B (zh) 基于深度信息与尺度感知信息的单张图像人群计数方法
CN111161306B (zh) 一种基于运动注意力的视频目标分割方法
CN109190511B (zh) 基于局部与结构约束低秩表示的高光谱分类方法
CN110569782A (zh) 一种基于深度学习目标检测方法
CN106611423B (zh) 基于脊波滤波器和反卷积结构模型的sar图像分割方法
CN109376787B (zh) 流形学习网络及基于其的计算机视觉图像集分类方法
CN112288011A (zh) 一种基于自注意力深度神经网络的图像匹配方法
CN111368935B (zh) 一种基于生成对抗网络的sar时敏目标样本增广方法
CN112750106A (zh) 一种基于非完备标记的深度学习的核染色细胞计数方法、计算机设备、存储介质
CN115641583B (zh) 一种基于自监督和主动学习的点云检测方法、系统及介质
CN115049814B (zh) 采用神经网络模型的护眼灯智能调节方法
CN108154176B (zh) 一种针对单一深度图像的3d人体姿态估计算法
CN107423771B (zh) 一种两时相遥感图像变化检测方法
CN111626380A (zh) 一种基于超像素和卷积网络的极化sar图像分类方法
CN113627240B (zh) 一种基于改进ssd学习模型的无人机树木种类识别方法
CN114492634A (zh) 一种细粒度装备图片分类识别方法及系统
CN114897782A (zh) 基于生成式对抗网络的胃癌病理切片图像分割预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant