CN116740650A - 一种基于深度学习的作物育种监测方法及系统 - Google Patents

一种基于深度学习的作物育种监测方法及系统 Download PDF

Info

Publication number
CN116740650A
CN116740650A CN202311002703.3A CN202311002703A CN116740650A CN 116740650 A CN116740650 A CN 116740650A CN 202311002703 A CN202311002703 A CN 202311002703A CN 116740650 A CN116740650 A CN 116740650A
Authority
CN
China
Prior art keywords
pooling
layer
image
convolution
crop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311002703.3A
Other languages
English (en)
Other versions
CN116740650B (zh
Inventor
赵磊
王克响
宋文宇
李洪霞
刘太联
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Agricultural University
Original Assignee
Qingdao Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Agricultural University filed Critical Qingdao Agricultural University
Priority to CN202311002703.3A priority Critical patent/CN116740650B/zh
Publication of CN116740650A publication Critical patent/CN116740650A/zh
Application granted granted Critical
Publication of CN116740650B publication Critical patent/CN116740650B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的作物育种监测方法及系统,方法包括:数据采集、光照感知色彩增强、多尺度图像特征提取和作物育种病害分类。本发明属于作物育种技术领域,具体是指一种基于深度学习的作物育种监测方法及系统,本方案通过照度的估计,入射光分量和反射光分量的优化,HSV色彩空间的校正,使增强后的图像亮度适中、色彩饱满、细节清晰;通过改进网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,在一定程度上提高了样本采集的泛化能力;通过不断优化卷积模型初始连接权重和阈值,使优化参数向更好的搜索区域靠拢,避免陷入局部极小值而无法找到更优的全局解的问题。

Description

一种基于深度学习的作物育种监测方法及系统
技术领域
本发明属于作物育种技术领域,具体是指一种基于深度学习的作物育种监测方法及系统。
背景技术
作物育种监测是一项重要的农业技术,可以帮助农民和育种专家及时发现作物的病害问题,并采取有效的防治措施。但是现有的作物育种监测方法存在未经处理的原始图像会受噪声干扰,使图像清晰度降低,色彩饱和度不够,细节缺失,进而导致灰值小、亮度高、图像模糊的技术问题;存在当输入图像为任意大小时,必须通过裁剪图像或沿水平和垂直方向变形将图像固定为适合训练网络的大小,导致一些重要信息的丢失和由于图像的旋转和拉伸而导致几何失真的技术问题;存在分类算法收敛速度慢,容易陷入局部极小值而无法找到更优的全局解的技术问题。
发明内容
针对上述情况,为克服现有技术的缺陷,本发明提供了一种基于深度学习的作物育种监测方法及系统,针对未经处理的原始图像会受噪声干扰,使图像清晰度降低,色彩饱和度不够,细节缺失,进而导致灰值小、亮度高、图像模糊的技术问题,本发明通过照度的估计,入射光分量和反射光分量的优化,HSV色彩空间的校正,使增强后的图像亮度适中、色彩饱满、细节清晰,突出了图像背景的细节,降低了图像噪声,大大提高了图像的质量,能够更好地利用图像进行作物育种监测;针对当输入图像为任意大小时,必须通过裁剪图像或沿水平和垂直方向变形将图像固定为适合训练网络的大小,导致一些重要信息的丢失和由于图像的旋转和拉伸而导致几何失真的技术问题,本发明改进了网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,在一定程度上提高了样本采集的泛化能力,克服特征提取过程中输入图像必须具有固定大小的限制;针对分类算法收敛速度慢,容易陷入局部极小值而无法找到更优的全局解的技术问题,本发明通过不断优化作物守护者模型初始连接权重和阈值,使优化参数向更好的搜索区域靠拢,避免陷入局部极小值而无法找到更优的全局解的问题,加速训练过程,提高分类准确度。
本发明采取的技术方案如下:本发明提供的一种基于深度学习的作物育种监测方法,该方法包括以下步骤:
步骤S1:数据采集,采集育种区内作物病害部位图像及对应标签,标签为作物病害类别,将育种区内作物病害部位图像作为原始图像;
步骤S2:光照感知色彩增强,对每个分量进行分解,校正和调整入射光和反射光分量,将R、G和B三个通道简化为单通道计算增强后的亮度分量,基于增强后的亮度分量校正饱和度分量,色度分量不变,实现色彩增强;
步骤S3:多尺度图像特征提取,改进网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,进而得到作物育种病害特征向量;
步骤S4:作物育种病害分类,通过不断优化初始连接权重和阈值,确定作物守护者模型,再对提取的作物育种病害特征进行分类,得到病害标签,对作物采取对应有效的防治措施。
进一步地,在步骤S2中,所述光照感知色彩增强具体包括以下步骤:
步骤S21:第一次空间转换,将原始图像的RGB颜色空间转换为HSV颜色空间,得到色调H、饱和度S和亮度V;
步骤S22:增加亮度分量,在不同的光照条件下,增加亮度分量V以获得n1,n2,…,nm的光照系数和M个图像V1(x,y),V2(x,y),…,Vm(x,y);
步骤S23:计算入射光分量,将V1(x,y),V2(x,y),…,Vm(x,y)划分为K层,计算本征模态函数,将本征模态函数作为入射光分量,所用公式如下:
式中,f(x,y)是原始图像,hi(x,y)是第i层本征模态函数,rK(x,y)是残差图像;
步骤S24:校正入射光图像,所用公式如下:
l’(i)=ia×l(i)γ+b;
式中,l’(i)是校正后的入射光图像像素值,l(i)是原始入射光图像的像素值,ia是像素增益系数,b是像素偏移量,γ是伽玛值;
步骤S25:计算反射光图像,所用公式如下:
R=F-L;
式中,R是反射光图像,L是入射光图像,F是原始图像;
步骤S26:校正反射光图像,所用公式如下:
r’(i)=ia×r(i)γ+b;
式中,r’(i)是校正后的反射光图像像素值,r(i)是原始反射光图像的像素值;
步骤S27:计算亮度增强后的图像,所用公式如下:
log(V’)=R’+KL;
式中,V’是亮度增强后的图像,K是加权系数,L像素平均值,R’是校正后的反射光图像;
步骤S28:计算亮度的方差,所用公式如下:
式中,vw(x,y)是域窗口W中t=0.35和(x,y)的亮度值,t是常数比率,δV(x,y)是亮度的方差,v(i,j)是像素(i,j)处的亮度值;
步骤S29:计算饱和度的方差,所用公式如下:
式中,sw(x,y)是域窗口W中t=0.35和(x,y)的饱和度值,δs(x,y)是饱和度的方差,s(i,j)是像素(i,j)处的饱和度值;
步骤S210:计算增强后的饱和度值,所用公式如下:
式中,λ是加法系数,s’(x,y)是增强后的饱和度值,s(x,y)是增强前的饱和度值,v’(x,y)是增强后的亮度值,v(x,y)是增强前的亮度值;
步骤S211:第二次空间转换,将增强后的V通道图像、S通道图像和原始图像中的H通道图像重新合成为HSV图像,并转换回RGB颜色空间,完成图像色彩增强。
进一步地,在步骤S3中,所述多尺度图像特征提取具体包括以下步骤:
步骤S31:初始化卷积神经网络,卷积神经网络包含一个输入层、四个卷积层、六个池化层、一个全连接层和一个输出层;
步骤S32:输入层处理,基于步骤S2色彩增强后的图像,采用加权平均法进行灰度化处理,得到t1×t2的灰度图像;
步骤S33:第一卷积层处理,将灰度图像通过与20个5×5大小的卷积核进行卷积运算,并使用ReLU激活函数进行偏移,得到大小为(t1-5+1)×(t2-5+1)的20个不同的特征图,每个特征图大小用t11×t21表示,所用公式如下:
ReLU(x)=max(0,x);
Tj J1=max(0,Tin K1j J1+bj J1),j=1,2,…,20;
式中,ReLU(x)是激活函数,Tj J1是第一卷积层处理得到的第j个特征图,Tin是灰度图像,K1j是对灰度图像处理使用的第j个卷积核,bj是第j个卷积核的偏移量,是卷积运算符;
步骤S34:第一池化层处理,基于第一卷积层卷积后获得的特征图,执行池化大小为2且池化区域不重叠的最大值池化,池化后,水平和垂直空间分辨率变为原始分辨率的一半,每个特征图尺寸为0.5*t11×0.5*t21,所用公式如下:
Tj Y1=max(0,βj Y1down(Tj J1)+bj Y1),i=1,2,…,20,j=1,2,…,20;
式中,Tj Y1是第一池化层处理得到的第j个特征图,β是降池化处理的权重矩阵,down()是降池化操作;
步骤S35:第二卷积层处理,将第一池化层处理得到的20个特征图通过与40个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t11-3+1)×(0.5*t21-3+1)的40个不同的特征图,每个特征图大小用t12×t22表示,所用公式如下:
Tj J2=max(0,∑Ti Y1 Kij J2+bj J2),i=1,2,…,20,j=1,2,…,40;
式中,Tj J2是第二卷积层处理得到的第j个特征图,Kij是对第i个特征图处理使用的第j个卷积核;
步骤S36:第二池化层处理,基于第二卷积层卷积后获得的特征图,执行与步骤S34相同的最大值池化,池化后,每个特征图尺寸为0.5*t12×0.5*t22,所用公式如下:
Tj Y2=max(0,βj Y2down(Tj J2)+bj Y2),i=1,2,…,40,j=1,2,…,40;
式中,Tj Y2是第二池化层处理得到的第j个特征图;
步骤S37:第三卷积层处理,将第二池化层处理得到的40个特征图通过与60个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t12-3+1)×(0.5*t22-3+1)的60个不同的特征图,每个特征图大小用t13×t23表示,所用公式如下:
Tj J3=max(0,∑Ti Y2 Kij J3+bj J3),i=1,2,…,40,j=1,2,…,60;
式中,Tj J3是第三卷积层处理得到的第j个特征图;
步骤S38:第三池化层处理,基于第三卷积层卷积后获得的特征图,执行与步骤S34相同的最大值池化,池化后,每个特征图尺寸为0.5*t13×0.5*t23,所用公式如下:
Tj Y3=max(0,βj Y3down(Tj J3)+bj Y3),i=1,2,…,60,j=1,2,…,60;
式中,Tj Y3是第三池化层处理得到的第j个特征图;
步骤S39:第四卷积层处理,将第三池化层处理得到的60个特征图通过与80个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t13-3+1)×(0.5*t23-3+1)的80个不同的特征图,每个特征图大小用t14×t24表示,所用公式如下:
Tj J4=max(0,∑Ti Y3 Kij J4+bj J4),i=1,2,…,60,j=1,2,…,80;
式中,Tj J4是第四卷积层处理得到的第j个特征图;
步骤S310:第四池化层处理,基于第四卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,池化后,得到三个固定大小为1×1×80、2×2×80和3×3×80的特征向量矩阵,按照列的顺序展开,得到三个固定大小为1×80、4×80和9×80的特征列向量,将向量按顺序连接,形成一个固定大小为14×80=1120×1的特征列向量tD1,所用公式如下:
式中,m11是第四池化层三个不同尺度的最大值池化的大小,m12是第四池化层三个不同尺度的最大值池化的步幅,是向上取整运算符,/>是向下取整运算符;
步骤S311:第五池化层处理,基于第三卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,形成一个固定大小的14×60=840×1的特征列向量tD2,所用公式如下:
式中,m21是第五池化层三个不同尺度的最大值池化的大小,m22是第五池化层三个不同尺度的最大值池化的步幅;
步骤S312:第六池化层处理,基于第二卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,形成一个固定大小的14×40=560×1的特征列向量tD3,所用公式如下:
式中,m31是第六池化层三个不同尺度的最大值池化的大小,m32是第六池化层三个不同尺度的最大值池化的步幅;
步骤S313:全连接层处理,基于第四池化层、第五池化层和第六池化层得到的特征列向量,通过全连接方式得到作物育种病害特征向量TS,所用公式如下:
TS=max(0,W1tD1+W2tD2+W3tD3+bS);
式中,W1、W2和W3分别是tD1、tD2和tD3三个特征列向量连接的相应权重矩阵,bS是连接使用的偏移矩阵;
步骤S314:输出层处理,基于全连接层处理得到的作物育种病害特征向量,将其输入至作物守护者模型中进行分类。
进一步地,在步骤S4中,所述作物育种病害分类具体包括以下步骤:
步骤S41:构建训练数据集和测试数据集,采集作物育种病害公开数据集作为样本数据,数据包括作物育种病害特征及对应标签,作物育种病害特征即为特征向量,所述对应标签包括健康状态、虫害、营养失调病害、细菌病害和真菌病害,随机选取70%的样本数据作为训练数据集,其余30%的样本数据作为测试数据集,预先设定第一行为、第二行为、第三行为、第四行为和第五行为的权重;
步骤S42:初始化优化参数位置,预先设有优化参数位置数量N,随机初始化步长向量,并随机生成优化参数的初始位置,用参数(rj,ωij,ε,θj)代表每个优化参数的位置,ε是输出层的阈值,rj是从第j层隐藏层到输出层的连接权重,ωij是从输入层的第i个节点到第j层隐藏层的连接权重,θj是第j层隐藏层节点的阈值;
步骤S43:训练作物守护者模型,作物守护者模型由输入层、隐藏层和输出层组成,预先设定输入维数和输出维数分别为m和1,隐藏层数为p,输入层、隐藏层和输出层中的节点数为R、S1、S2,基于训练数据集训练作物守护者模型,所用公式如下:
式中,f是隐藏层的激活函数,xi是输入层第i个维度的输出,bj是从第j层隐藏层到隐藏层节点的输出;
步骤S44:编码,采用实数编码,将连接权重rj、ωij和阈值ε、θj作为一个整体进行编码,得到编码长度,所用公式如下:
S=RS1+S1S2+S1+S2
式中,S是编码长度;
步骤S45:计算优化参数适应度值,用步骤S43训练的作物守护者模型对测试数据集进行预测,并计算适应度值,所用公式如下:
式中,f(d)是第d个优化参数位置的适应度值,k是测试数据集中样本的数量,ya是真实标签,ya’是预测标签;
步骤S46:选择最优位置和最差位置,将所有优化参数位置根据适应度值的大小进行排序,选择适应度值最低的优化参数位置作为最优位置Zbest,选择适应度值最高的优化参数位置作为最差位置Zworst;
步骤S47:第一行为的位置更新,所用公式如下:
式中,Pd是第d个优化参数第一行为的位置更新,Z是当前优化参数的位置,Zc是第c个相邻优化参数的位置;
步骤S48:第二行为的位置更新,所用公式如下:
式中,Qd是第d个优化参数第二行为的位置更新,Vc是第c个相邻优化参数的个体速度;
步骤S49:第三行为的位置更新,所用公式如下:
式中,Ud是第d个优化参数第三行为的位置更新;
步骤S410:第四行为的位置更新,所用公式如下:
Gd=Zbest-Z;
式中,Gd是第d个优化参数第四行为的位置更新;
步骤S411:第五行为的位置更新,所用公式如下:
Hd=Zworst+Z;
式中,Hd是第d个优化参数第五行为的位置更新;
步骤S412:步长更新,所用公式如下:
ΔZt+1=(pPd+qQd+uUd+gGd+hHd)+σΔZt
式中,ΔZt+1是第t+1次迭代的步长更新,p、q、u、g和h分别是第一行为、第二行为、第三行为、第四行为和第五行为的权重,σ是惯性重量;
步骤S413:优化参数位置更新,所用公式如下:
Zt+1=Zt+ΔZt+1
式中,Zt+1是第t+1次迭代的优化参数位置更新;
步骤S414:更新适应度值、最优位置和最差位置,基于步骤S413更新后的优化参数位置更新适应度值,选择适应度值最低的优化参数位置更新最优位置Zbest,选择适应度值最高的优化参数位置更新最差位置Zworst;
步骤S415:模型确定,预先设有评估阈值和最大迭代次数,当优化参数的适应度值低于评估阈值则基于当前参数建立作物守护者模型并转至步骤S416;若达到最大迭代次数,则转至步骤S42;否则转至步骤S47;
步骤S416:分类,将步骤S3提取的作物育种病害特征输入至作物守护者模型中,农民和育种专家基于作物守护者模型输出的病害标签对作物采取对应有效的防治措施。
本发明提供的一种基于深度学习的作物育种监测系统,包括数据采集模块、光照感知色彩增强模块、多尺度图像特征提取模块和作物育种病害分类模块;
以育种区内作物病害部位图像为例,所述数据采集模块采集育种区内作物病害部位图像及对应标签,标签为作物病害类别,将育种区内作物病害部位图像作为原始图像,并将原始图像发送至光照感知色彩增强模块;
所述光照感知色彩增强模块接收数据采集模块发送的原始图像,通过照度的估计,入射光分量和反射光分量的优化,HSV色彩空间的校正,实现色彩增强,并将实现色彩增强后的图片发送至多尺度图像特征提取模块;
所述多尺度图像特征提取模块接收光照感知色彩增强模块发送的色彩增强后的图片,通过改进网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,进而得到作物育种病害特征向量,并将提取得到的作物育种病害特征向量发送至作物育种病害分类模块;
所述作物育种病害分类模块接收多尺度图像特征提取模块发送的作物育种病害特征向量,通过不断优化初始连接权重和阈值,确定作物守护者模型,再对提取的作物育种病害特征进行分类,得到病害标签,对作物采取对应有效的防治措施。
采用上述方案本发明取得的有益效果如下:
(1)针对未经处理的原始图像会受噪声干扰,使图像清晰度降低,色彩饱和度不够,细节缺失,进而导致灰值小、亮度高、图像模糊的技术问题,本发明通过照度的估计,入射光分量和反射光分量的优化,HSV色彩空间的校正,使增强后的图像亮度适中、色彩饱满、细节清晰,突出了图像背景的细节,降低了图像噪声,大大提高了图像的质量,能够更好地利用图像进行作物育种监测。
(2)针对当输入图像为任意大小时,必须通过裁剪图像或沿水平和垂直方向变形将图像固定为适合训练网络的大小,导致一些重要信息的丢失和由于图像的旋转和拉伸而导致几何失真的技术问题,本发明改进了网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,在一定程度上提高了样本采集的泛化能力,克服特征提取过程中输入图像必须具有固定大小的限制。
(3)针对分类算法收敛速度慢,容易陷入局部极小值而无法找到更优的全局解的技术问题,本发明通过不断优化作物守护者模型初始连接权重和阈值,使优化参数向更好的搜索区域靠拢,避免陷入局部极小值而无法找到更优的全局解的问题,加速训练过程,提高分类准确度。
附图说明
图1为本发明提供的一种基于深度学习的作物育种监测方法的流程示意图;
图2为本发明提供的一种基于深度学习的作物育种监测系统的示意图;
图3为步骤S2的流程示意图;
图4为步骤S3的流程示意图;
图5为步骤S4的流程示意图;
图6为优化参数搜索位置示意图;
图7为优化参数搜索曲线图。
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
实施例一,参阅图1,本发明提供的一种基于深度学习的作物育种监测方法,该方法包括以下步骤:
步骤S1:数据采集,采集育种区内作物病害部位图像及对应标签,标签为作物病害类别,将育种区内作物病害部位图像作为原始图像;
步骤S2:光照感知色彩增强,对每个分量进行分解,校正和调整入射光和反射光分量,将R、G和B三个通道简化为单通道计算增强后的亮度分量,基于增强后的亮度分量校正饱和度分量,色度分量不变,实现色彩增强;
步骤S3:多尺度图像特征提取,改进网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,进而得到作物育种病害特征向量;
步骤S4:作物育种病害分类,通过不断优化初始连接权重和阈值,确定作物守护者模型,再对提取的作物育种病害特征进行分类,得到病害标签,对作物采取对应有效的防治措施。
实施例二,参阅图1和图3,该实施例基于上述实施例,在步骤S2中,光照感知色彩增强具体包括以下步骤:
步骤S21:第一次空间转换,将原始图像的RGB颜色空间转换为HSV颜色空间,得到色调H、饱和度S和亮度V;
步骤S22:增加亮度分量,在不同的光照条件下,增加亮度分量V以获得n1,n2,…,nm的光照系数和M个图像V1(x,y),V2(x,y),…,Vm(x,y);
步骤S23:计算入射光分量,将V1(x,y),V2(x,y),…,Vm(x,y)划分为K层,计算本征模态函数,将本征模态函数作为入射光分量,所用公式如下:
式中,f(x,y)是原始图像,hi(x,y)是第i层本征模态函数,rK(x,y)是残差图像;
步骤S24:校正入射光图像,所用公式如下:
l’(i)=ia×l(i)γ+b;
式中,l’(i)是校正后的入射光图像像素值,l(i)是原始入射光图像的像素值,ia是像素增益系数,b是像素偏移量,γ是伽玛值;
步骤S25:计算反射光图像,所用公式如下:
R=F-L;
式中,R是反射光图像,L是入射光图像,F是原始图像;
步骤S26:校正反射光图像,所用公式如下:
r’(i)=ia×r(i)γ+b;
式中,r’(i)是校正后的反射光图像像素值,r(i)是原始反射光图像的像素值;
步骤S27:计算亮度增强后的图像,所用公式如下:
log(V’)=R’+KL;
式中,V’是亮度增强后的图像,K是加权系数,L像素平均值,R’是校正后的反射光图像;
步骤S28:计算亮度的方差,所用公式如下:
式中,vw(x,y)是域窗口W中t=0.35和(x,y)的亮度值,t是常数比率,δV(x,y)是亮度的方差,v(i,j)是像素(i,j)处的亮度值;
步骤S29:计算饱和度的方差,所用公式如下:
式中,sw(x,y)是域窗口W中t=0.35和(x,y)的饱和度值,δs(x,y)是饱和度的方差,s(i,j)是像素(i,j)处的饱和度值;
步骤S210:计算增强后的饱和度值,所用公式如下:
式中,λ是加法系数,s’(x,y)是增强后的饱和度值,s(x,y)是增强前的饱和度值,v’(x,y)是增强后的亮度值,v(x,y)是增强前的亮度值;
步骤S211:第二次空间转换,将增强后的V通道图像、S通道图像和原始图像中的H通道图像重新合成为HSV图像,并转换回RGB颜色空间,完成图像色彩增强。
通过执行上述操作,针对未经处理的原始图像会受噪声干扰,使图像清晰度降低,色彩饱和度不够,细节缺失,进而导致灰值小、亮度高、图像模糊的技术问题,本发明通过照度的估计,入射光分量和反射光分量的优化,HSV色彩空间的校正,使增强后的图像亮度适中、色彩饱满、细节清晰,突出了图像背景的细节,降低了图像噪声,大大提高了图像的质量,能够更好地利用图像进行作物育种监测。
实施例三,参阅图1和图4,该实施例基于上述实施例,在步骤S3中,多尺度图像特征提取具体包括以下步骤:
步骤S31:初始化卷积神经网络,卷积神经网络包含一个输入层、四个卷积层、六个池化层、一个全连接层和一个输出层;
步骤S32:输入层处理,基于步骤S2色彩增强后的图像,采用加权平均法进行灰度化处理,得到t1×t2的灰度图像;
步骤S33:第一卷积层处理,将灰度图像通过与20个5×5大小的卷积核进行卷积运算,并使用ReLU激活函数进行偏移,得到大小为(t1-5+1)×(t2-5+1)的20个不同的特征图,每个特征图大小用t11×t21表示,所用公式如下:
ReLU(x)=max(0,x);
Tj J1=max(0,Tin K1j J1+bj J1),j=1,2,…,20;
式中,ReLU(x)是激活函数,Tj J1是第一卷积层处理得到的第j个特征图,Tin是灰度图像,K1j是对灰度图像处理使用的第j个卷积核,bj是第j个卷积核的偏移量,是卷积运算符;
步骤S34:第一池化层处理,基于第一卷积层卷积后获得的特征图,执行池化大小为2且池化区域不重叠的最大值池化,池化后,水平和垂直空间分辨率变为原始分辨率的一半,每个特征图尺寸为0.5*t11×0.5*t21,所用公式如下:
Tj Y1=max(0,βj Y1down(Tj J1)+bj Y1),i=1,2,…,20,j=1,2,…,20;
式中,Tj Y1是第一池化层处理得到的第j个特征图,β是降池化处理的权重矩阵,down()是降池化操作;
步骤S35:第二卷积层处理,将第一池化层处理得到的20个特征图通过与40个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t11-3+1)×(0.5*t21-3+1)的40个不同的特征图,每个特征图大小用t12×t22表示,所用公式如下:
Tj J2=max(0,∑Ti Y1 Kij J2+bj J2),i=1,2,…,20,j=1,2,…,40;
式中,Tj J2是第二卷积层处理得到的第j个特征图,Kij是对第i个特征图处理使用的第j个卷积核;
步骤S36:第二池化层处理,基于第二卷积层卷积后获得的特征图,执行与步骤S34相同的最大值池化,池化后,每个特征图尺寸为0.5*t12×0.5*t22,所用公式如下:
Tj Y2=max(0,βj Y2down(Tj J2)+bj Y2),i=1,2,…,40,j=1,2,…,40;
式中,Tj Y2是第二池化层处理得到的第j个特征图;
步骤S37:第三卷积层处理,将第二池化层处理得到的40个特征图通过与60个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t12-3+1)×(0.5*t22-3+1)的60个不同的特征图,每个特征图大小用t13×t23表示,所用公式如下:
Tj J3=max(0,∑Ti Y2 Kij J3+bj J3),i=1,2,…,40,j=1,2,…,60;
式中,Tj J3是第三卷积层处理得到的第j个特征图;
步骤S38:第三池化层处理,基于第三卷积层卷积后获得的特征图,执行与步骤S34相同的最大值池化,池化后,每个特征图尺寸为0.5*t13×0.5*t23,所用公式如下:
Tj Y3=max(0,βj Y3down(Tj J3)+bj Y3),i=1,2,…,60,j=1,2,…,60;
式中,Tj Y3是第三池化层处理得到的第j个特征图;
步骤S39:第四卷积层处理,将第三池化层处理得到的60个特征图通过与80个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t13-3+1)×(0.5*t23-3+1)的80个不同的特征图,每个特征图大小用t14×t24表示,所用公式如下:
Tj J4=max(0,∑Ti Y3 Kij J4+bj J4),i=1,2,…,60,j=1,2,…,80;
式中,Tj J4是第四卷积层处理得到的第j个特征图;
步骤S310:第四池化层处理,基于第四卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,池化后,得到三个固定大小为1×1×80、2×2×80和3×3×80的特征向量矩阵,按照列的顺序展开,得到三个固定大小为1×80、4×80和9×80的特征列向量,将向量按顺序连接,形成一个固定大小为14×80=1120×1的特征列向量tD1,所用公式如下:
式中,m11是第四池化层三个不同尺度的最大值池化的大小,m12是第四池化层三个不同尺度的最大值池化的步幅,是向上取整运算符,/>是向下取整运算符;
步骤S311:第五池化层处理,基于第三卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,形成一个固定大小的14×60=840×1的特征列向量tD2,所用公式如下:
式中,m21是第五池化层三个不同尺度的最大值池化的大小,m22是第五池化层三个不同尺度的最大值池化的步幅;
步骤S312:第六池化层处理,基于第二卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,形成一个固定大小的14×40=560×1的特征列向量tD3,所用公式如下:
式中,m31是第六池化层三个不同尺度的最大值池化的大小,m32是第六池化层三个不同尺度的最大值池化的步幅;
步骤S313:全连接层处理,基于第四池化层、第五池化层和第六池化层得到的特征列向量,通过全连接方式得到作物育种病害特征向量TS,所用公式如下:
TS=max(0,W1tD1+W2tD2+W3tD3+bS);
式中,W1、W2和W3分别是tD1、tD2和tD3三个特征列向量连接的相应权重矩阵,bS是连接使用的偏移矩阵;
步骤S314:输出层处理,基于全连接层处理得到的作物育种病害特征向量,将其输入至作物守护者模型中进行分类。
通过执行上述操作,针对当输入图像为任意大小时,必须通过裁剪图像或沿水平和垂直方向变形将图像固定为适合训练网络的大小,导致一些重要信息的丢失和由于图像的旋转和拉伸而导致几何失真的技术问题,本发明改进了网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,在一定程度上提高了样本采集的泛化能力,克服特征提取过程中输入图像必须具有固定大小的限制。
实施例四,参阅图1和图5,该实施例基于上述实施例,在步骤S4中,作物育种病害分类具体包括以下步骤:
步骤S41:构建训练数据集和测试数据集,采集作物育种病害公开数据集作为样本数据,数据包括作物育种病害特征及对应标签,作物育种病害特征即为特征向量,所述对应标签包括健康状态、虫害、营养失调病害、细菌病害和真菌病害,随机选取70%的样本数据作为训练数据集,其余30%的样本数据作为测试数据集,预先设定第一行为、第二行为、第三行为、第四行为和第五行为的权重;
步骤S42:初始化优化参数位置,预先设有优化参数位置数量N,随机初始化步长向量,并随机生成优化参数的初始位置,用参数(rj,ωij,ε,θj)代表每个优化参数的位置,ε是输出层的阈值,rj是从第j层隐藏层到输出层的连接权重,ωij是从输入层的第i个节点到第j层隐藏层的连接权重,θj是第j层隐藏层节点的阈值;
步骤S43:训练作物守护者模型,作物守护者模型由输入层、隐藏层和输出层组成,预先设定输入维数和输出维数分别为m和1,隐藏层数为p,输入层、隐藏层和输出层中的节点数为R、S1、S2,基于训练数据集训练作物守护者模型,所用公式如下:
;/>
式中,f是隐藏层的激活函数,xi是输入层第i个维度的输出,bj是从第j层隐藏层到隐藏层节点的输出;
步骤S44:编码,采用实数编码,将连接权重rj、ωij和阈值ε、θj作为一个整体进行编码,得到编码长度,所用公式如下:
S=RS1+S1S2+S1+S2
式中,S是编码长度;
步骤S45:计算优化参数适应度值,用步骤S43训练的作物守护者模型对测试数据集进行预测,并计算适应度值,所用公式如下:
式中,f(d)是第d个优化参数位置的适应度值,k是测试数据集中样本的数量,ya是真实标签,ya’是预测标签;
步骤S46:选择最优位置和最差位置,将所有优化参数位置根据适应度值的大小进行排序,选择适应度值最低的优化参数位置作为最优位置Zbest,选择适应度值最高的优化参数位置作为最差位置Zworst;
步骤S47:第一行为的位置更新,所用公式如下:
式中,Pd是第d个优化参数第一行为的位置更新,Z是当前优化参数的位置,Zc是第c个相邻优化参数的位置;
步骤S48:第二行为的位置更新,所用公式如下:
式中,Qd是第d个优化参数第二行为的位置更新,Vc是第c个相邻优化参数的个体速度;
步骤S49:第三行为的位置更新,所用公式如下:
式中,Ud是第d个优化参数第三行为的位置更新;
步骤S410:第四行为的位置更新,所用公式如下:
Gd=Zbest-Z;
式中,Gd是第d个优化参数第四行为的位置更新;
步骤S411:第五行为的位置更新,所用公式如下:
Hd=Zworst+Z;
式中,Hd是第d个优化参数第五行为的位置更新;
步骤S412:步长更新,所用公式如下:
ΔZt+1=(pPd+qQd+uUd+gGd+hHd)+σΔZt
式中,ΔZt+1是第t+1次迭代的步长更新,p、q、u、g和h分别是第一行为、第二行为、第三行为、第四行为和第五行为的权重,σ是惯性重量;
步骤S413:优化参数位置更新,所用公式如下:
Zt+1=Zt+ΔZt+1
式中,Zt+1是第t+1次迭代的优化参数位置更新;
步骤S414:更新适应度值、最优位置和最差位置,基于步骤S413更新后的优化参数位置更新适应度值,选择适应度值最低的优化参数位置更新最优位置Zbest,选择适应度值最高的优化参数位置更新最差位置Zworst;
步骤S415:模型确定,预先设有评估阈值和最大迭代次数,当优化参数的适应度值低于评估阈值则基于当前参数建立作物守护者模型并转至步骤S416;若达到最大迭代次数,则转至步骤S42;否则转至步骤S47;
步骤S416:分类,将步骤S3提取的作物育种病害特征输入至作物守护者模型中,农民和育种专家基于作物守护者模型输出的病害标签对作物采取对应有效的防治措施。
通过执行上述操作,针对分类算法收敛速度慢,容易陷入局部极小值而无法找到更优的全局解的技术问题,本发明通过不断优化作物守护者模型初始连接权重和阈值,使优化参数向更好的搜索区域靠拢,避免陷入局部极小值而无法找到更优的全局解的问题,加速训练过程,提高分类准确度。
实施例五,参阅图6和图7,该实施例基于上述实施例,在图6中,展示优化参数不断更新所在位置,直到找到全局最优位置的过程;在图7中,纵坐标是适应度值,横坐标是迭代次数,展示随着迭代次数的变化适应度值逐渐降低的变化过程,使优化参数向更好的搜索区域靠拢,极大地改善算法的分类效果,避免陷入局部极小值而无法找到更优的全局解的问题。
实施例六,参阅图2,该实施例基于上述实施例,本发明提供的一种基于深度学习的作物育种监测系统,包括数据采集模块、光照感知色彩增强模块、多尺度图像特征提取模块和作物育种病害分类模块;
以育种区内作物病害部位图像为例,所述数据采集模块采集育种区内作物病害部位图像及对应标签,标签为作物病害类别,将育种区内作物病害部位图像作为原始图像,并将原始图像发送至光照感知色彩增强模块;
所述光照感知色彩增强模块接收数据采集模块发送的原始图像,通过照度的估计,入射光分量和反射光分量的优化,HSV色彩空间的校正,实现色彩增强,并将实现色彩增强后的图片发送至多尺度图像特征提取模块;
所述多尺度图像特征提取模块接收光照感知色彩增强模块发送的色彩增强后的图片,通过改进网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,进而得到作物育种病害特征向量,并将提取得到的作物育种病害特征向量发送至作物育种病害分类模块;
所述作物育种病害分类模块接收多尺度图像特征提取模块发送的作物育种病害特征向量,通过不断优化初始连接权重和阈值,确定作物守护者模型,再对提取的作物育种病害特征进行分类,得到病害标签,对作物采取对应有效的防治措施。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。

Claims (6)

1.一种基于深度学习的作物育种监测方法,其特征在于:该方法包括以下步骤:
步骤S1:数据采集,采集育种区内作物病害部位图像及对应标签,标签为作物病害类别,将育种区内作物病害部位图像作为原始图像;
步骤S2:光照感知色彩增强,对每个分量进行分解,校正和调整入射光和反射光分量,将R、G和B三个通道简化为单通道计算增强后的亮度分量,基于增强后的亮度分量校正饱和度分量,色度分量不变,实现色彩增强;
步骤S3:多尺度图像特征提取,改进网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,进而得到作物育种病害特征向量;
步骤S4:作物育种病害分类,通过不断优化初始连接权重和阈值,确定作物守护者模型,再对提取的作物育种病害特征进行分类,得到病害标签,对作物采取对应有效的防治措施。
2.根据权利要求1所述的一种基于深度学习的作物育种监测方法,其特征在于:在步骤S2中,所述光照感知色彩增强具体包括以下步骤:
步骤S21:第一次空间转换,将原始图像的RGB颜色空间转换为HSV颜色空间,得到色调H、饱和度S和亮度V;
步骤S22:增加亮度分量,在不同的光照条件下,增加亮度分量V以获得n1,n2,…,nm的光照系数和M个图像V1(x,y),V2(x,y),…,Vm(x,y);
步骤S23:计算入射光分量,将V1(x,y),V2(x,y),…,Vm(x,y)划分为K层,计算本征模态函数,将本征模态函数作为入射光分量,所用公式如下:
式中,f(x,y)是原始图像,hi(x,y)是第i层本征模态函数,rK(x,y)是残差图像;
步骤S24:校正入射光图像,所用公式如下:
l’(i)=ia×l(i)γ+b;
式中,l’(i)是校正后的入射光图像像素值,l(i)是原始入射光图像的像素值,ia是像素增益系数,b是像素偏移量,γ是伽玛值;
步骤S25:计算反射光图像,所用公式如下:
R=F-L;
式中,R是反射光图像,L是入射光图像,F是原始图像;
步骤S26:校正反射光图像,所用公式如下:
r’(i)=ia×r(i)γ+b;
式中,r’(i)是校正后的反射光图像像素值,r(i)是原始反射光图像的像素值;
步骤S27:计算亮度增强后的图像,所用公式如下:
log(V’)=R’+KL;
式中,V’是亮度增强后的图像,K是加权系数,L像素平均值,R’是校正后的反射光图像;
步骤S28:计算亮度的方差,所用公式如下:
式中,vw(x,y)是域窗口W中t=0.35和(x,y)的亮度值,t是常数比率,δV(x,y)是亮度的方差,v(i,j)是像素(i,j)处的亮度值;
步骤S29:计算饱和度的方差,所用公式如下:
式中,sw(x,y)是域窗口W中t=0.35和(x,y)的饱和度值,δs(x,y)是饱和度的方差,s(i,j)是像素(i,j)处的饱和度值;
步骤S210:计算增强后的饱和度值,所用公式如下:
式中,λ是加法系数,s’(x,y)是增强后的饱和度值,s(x,y)是增强前的饱和度值,v’(x,y)是增强后的亮度值,v(x,y)是增强前的亮度值;
步骤S211:第二次空间转换,将增强后的V通道图像、S通道图像和原始图像中的H通道图像重新合成为HSV图像,并转换回RGB颜色空间,完成图像色彩增强。
3.根据权利要求1所述的一种基于深度学习的作物育种监测方法,其特征在于:在步骤S4中,所述作物育种病害分类具体包括以下步骤:
步骤S41:构建训练数据集和测试数据集,采集作物育种病害公开数据集作为样本数据,数据包括作物育种病害特征及对应标签,作物育种病害特征即为特征向量,所述对应标签包括健康状态、虫害、营养失调病害、细菌病害和真菌病害,随机选取70%的样本数据作为训练数据集,其余30%的样本数据作为测试数据集,预先设定第一行为、第二行为、第三行为、第四行为和第五行为的权重;
步骤S42:初始化优化参数位置,预先设有优化参数位置数量N,随机初始化步长向量,并随机生成优化参数的初始位置,用参数(rj,ωij,ε,θj)代表每个优化参数的位置,ε是输出层的阈值,rj是从第j层隐藏层到输出层的连接权重,ωij是从输入层的第i个节点到第j层隐藏层的连接权重,θj是第j层隐藏层节点的阈值;
步骤S43:训练作物守护者模型,作物守护者模型由输入层、隐藏层和输出层组成,预先设定输入维数和输出维数分别为m和1,隐藏层数为p,输入层、隐藏层和输出层中的节点数为R、S1、S2,基于训练数据集训练作物守护者模型,所用公式如下:
式中,f是隐藏层的激活函数,xi是输入层第i个维度的输出,bj是从第j层隐藏层到隐藏层节点的输出;
步骤S44:编码,采用实数编码,将连接权重rj、ωij和阈值ε、θj作为一个整体进行编码,得到编码长度,所用公式如下:
S=RS1+S1S2+S1+S2
式中,S是编码长度;
步骤S45:计算优化参数适应度值,用步骤S43训练的作物守护者模型对测试数据集进行预测,并计算适应度值,所用公式如下:
式中,f(d)是第d个优化参数位置的适应度值,k是测试数据集中样本的数量,ya是真实标签,ya’是预测标签;
步骤S46:选择最优位置和最差位置,将所有优化参数位置根据适应度值的大小进行排序,选择适应度值最低的优化参数位置作为最优位置Zbest,选择适应度值最高的优化参数位置作为最差位置Zworst;
步骤S47:第一行为的位置更新,所用公式如下:
式中,Pd是第d个优化参数第一行为的位置更新,Z是当前优化参数的位置,Zc是第c个相邻优化参数的位置;
步骤S48:第二行为的位置更新,所用公式如下:
式中,Qd是第d个优化参数第二行为的位置更新,Vc是第c个相邻优化参数的个体速度;
步骤S49:第三行为的位置更新,所用公式如下:
式中,Ud是第d个优化参数第三行为的位置更新;
步骤S410:第四行为的位置更新,所用公式如下:
Gd=Zbest-Z;
式中,Gd是第d个优化参数第四行为的位置更新;
步骤S411:第五行为的位置更新,所用公式如下:
Hd=Zworst+Z;
式中,Hd是第d个优化参数第五行为的位置更新;
步骤S412:步长更新,所用公式如下:
ΔZt+1=(pPd+qQd+uUd+gGd+hHd)+σΔZt
式中,ΔZt+1是第t+1次迭代的步长更新,p、q、u、g和h分别是第一行为、第二行为、第三行为、第四行为和第五行为的权重,σ是惯性重量;
步骤S413:优化参数位置更新,所用公式如下:
Zt+1=Zt+ΔZt+1
式中,Zt+1是第t+1次迭代的优化参数位置更新;
步骤S414:更新适应度值、最优位置和最差位置,基于步骤S413更新后的优化参数位置更新适应度值,选择适应度值最低的优化参数位置更新最优位置Zbest,选择适应度值最高的优化参数位置更新最差位置Zworst;
步骤S415:模型确定,预先设有评估阈值和最大迭代次数,当优化参数的适应度值低于评估阈值则基于当前参数建立作物守护者模型并转至步骤S416;若达到最大迭代次数,则转至步骤S42;否则转至步骤S47;
步骤S416:分类,将步骤S3提取的作物育种病害特征输入至作物守护者模型中,农民和育种专家基于作物守护者模型输出的病害标签对作物采取对应有效的防治措施。
4.根据权利要求1所述的一种基于深度学习的作物育种监测方法,其特征在于:在步骤S3中,所述多尺度图像特征提取具体包括以下步骤:
步骤S31:初始化卷积神经网络,卷积神经网络包含一个输入层、四个卷积层、六个池化层、一个全连接层和一个输出层;
步骤S32:输入层处理,基于步骤S2色彩增强后的图像,采用加权平均法进行灰度化处理,得到t1×t2的灰度图像;
步骤S33:第一卷积层处理,将灰度图像通过与20个5×5大小的卷积核进行卷积运算,并使用ReLU激活函数进行偏移,得到大小为(t1-5+1)×(t2-5+1)的20个不同的特征图,每个特征图大小用t11×t21表示,所用公式如下:
ReLU(x)=max(0,x);
Tj J1=max(0,Tin K1j J1+bj J1),j=1,2,…,20;
式中,ReLU(x)是激活函数,Tj J1是第一卷积层处理得到的第j个特征图,Tin是灰度图像,K1j是对灰度图像处理使用的第j个卷积核,bj是第j个卷积核的偏移量,是卷积运算符;
步骤S34:第一池化层处理,基于第一卷积层卷积后获得的特征图,执行池化大小为2且池化区域不重叠的最大值池化,池化后,水平和垂直空间分辨率变为原始分辨率的一半,每个特征图尺寸为0.5*t11×0.5*t21,所用公式如下:
Tj Y1=max(0,βj Y1down(Tj J1)+bj Y1),i=1,2,…,20,j=1,2,…,20;
式中,Tj Y1是第一池化层处理得到的第j个特征图,β是降池化处理的权重矩阵,down()是降池化操作;
步骤S35:第二卷积层处理,将第一池化层处理得到的20个特征图通过与40个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t11-3+1)×(0.5*t21-3+1)的40个不同的特征图,每个特征图大小用t12×t22表示,所用公式如下:
Tj J2=max(0,∑Ti Y1 Kij J2+bj J2),i=1,2,…,20,j=1,2,…,40;
式中,Tj J2是第二卷积层处理得到的第j个特征图,Kij是对第i个特征图处理使用的第j个卷积核;
步骤S36:第二池化层处理,基于第二卷积层卷积后获得的特征图,执行与步骤S34相同的最大值池化,池化后,每个特征图尺寸为0.5*t12×0.5*t22,所用公式如下:
Tj Y2=max(0,βj Y2down(Tj J2)+bj Y2),i=1,2,…,40,j=1,2,…,40;
式中,Tj Y2是第二池化层处理得到的第j个特征图;
步骤S37:第三卷积层处理,将第二池化层处理得到的40个特征图通过与60个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t12-3+1)×(0.5*t22-3+1)的60个不同的特征图,每个特征图大小用t13×t23表示,所用公式如下:
Tj J3=max(0,∑Ti Y2 Kij J3+bj J3),i=1,2,…,40,j=1,2,…,60;
式中,Tj J3是第三卷积层处理得到的第j个特征图;
步骤S38:第三池化层处理,基于第三卷积层卷积后获得的特征图,执行与步骤S34相同的最大值池化,池化后,每个特征图尺寸为0.5*t13×0.5*t23,所用公式如下:
Tj Y3=max(0,βj Y3down(Tj J3)+bj Y3),i=1,2,…,60,j=1,2,…,60;
式中,Tj Y3是第三池化层处理得到的第j个特征图;
步骤S39:第四卷积层处理,将第三池化层处理得到的60个特征图通过与80个3×3大小的卷积核进行卷积运算,将其扩展为(0.5*t13-3+1)×(0.5*t23-3+1)的80个不同的特征图,每个特征图大小用t14×t24表示,所用公式如下:
Tj J4=max(0,∑Ti Y3 Kij J4+bj J4),i=1,2,…,60,j=1,2,…,80;
式中,Tj J4是第四卷积层处理得到的第j个特征图;
步骤S310:第四池化层处理,基于第四卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,池化后,得到三个固定大小为1×1×80、2×2×80和3×3×80的特征向量矩阵,按照列的顺序展开,得到三个固定大小为1×80、4×80和9×80的特征列向量,将向量按顺序连接,形成一个固定大小为14×80=1120×1的特征列向量tD1,所用公式如下:
式中,m11是第四池化层三个不同尺度的最大值池化的大小,m12是第四池化层三个不同尺度的最大值池化的步幅,是向上取整运算符,/>是向下取整运算符;
步骤S311:第五池化层处理,基于第三卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,形成一个固定大小的14×60=840×1的特征列向量tD2,所用公式如下:
式中,m21是第五池化层三个不同尺度的最大值池化的大小,m22是第五池化层三个不同尺度的最大值池化的步幅;
步骤S312:第六池化层处理,基于第二卷积层卷积后获得的特征图,执行具有三个不同尺度的最大值池化,形成一个固定大小的14×40=560×1的特征列向量tD3,所用公式如下:
式中,m31是第六池化层三个不同尺度的最大值池化的大小,m32是第六池化层三个不同尺度的最大值池化的步幅;
步骤S313:全连接层处理,基于第四池化层、第五池化层和第六池化层得到的特征列向量,通过全连接方式得到作物育种病害特征向量TS,所用公式如下:
TS=max(0,W1tD1+W2tD2+W3tD3+bS);
式中,W1、W2和W3分别是tD1、tD2和tD3三个特征列向量连接的相应权重矩阵,bS是连接使用的偏移矩阵;
步骤S314:输出层处理,基于全连接层处理得到的作物育种病害特征向量,将其输入至作物守护者模型中进行分类。
5.一种基于深度学习的作物育种监测系统,用于实现如权利要求1-4中任一项所述的一种基于深度学习的作物育种监测方法,其特征在于:包括数据采集模块、光照感知色彩增强模块、多尺度图像特征提取模块和作物育种病害分类模块。
6.根据权利要求5所述的一种基于深度学习的作物育种监测系统,其特征在于:所述数据采集模块采集育种区内作物病害部位图像及对应标签,标签为作物病害类别,将育种区内作物病害部位图像作为原始图像,并将原始图像发送至光照感知色彩增强模块;
所述光照感知色彩增强模块接收数据采集模块发送的原始图像,通过照度的估计,入射光分量和反射光分量的优化,HSV色彩空间的校正,实现色彩增强,并将实现色彩增强后的图片发送至多尺度图像特征提取模块;
所述多尺度图像特征提取模块接收光照感知色彩增强模块发送的色彩增强后的图片,通过改进网络结构,使用多尺度池化将先前卷积池化层生成的深度特征集成到固定长度的特征表达式中,然后将其发送到全连接层,进而得到作物育种病害特征向量,并将提取得到的作物育种病害特征向量发送至作物育种病害分类模块;
所述作物育种病害分类模块接收多尺度图像特征提取模块发送的作物育种病害特征向量,通过不断优化初始连接权重和阈值,确定作物守护者模型,再对提取的作物育种病害特征进行分类,得到病害标签,对作物采取对应有效的防治措施。
CN202311002703.3A 2023-08-10 2023-08-10 一种基于深度学习的作物育种监测方法及系统 Active CN116740650B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311002703.3A CN116740650B (zh) 2023-08-10 2023-08-10 一种基于深度学习的作物育种监测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311002703.3A CN116740650B (zh) 2023-08-10 2023-08-10 一种基于深度学习的作物育种监测方法及系统

Publications (2)

Publication Number Publication Date
CN116740650A true CN116740650A (zh) 2023-09-12
CN116740650B CN116740650B (zh) 2023-10-20

Family

ID=87915411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311002703.3A Active CN116740650B (zh) 2023-08-10 2023-08-10 一种基于深度学习的作物育种监测方法及系统

Country Status (1)

Country Link
CN (1) CN116740650B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117114144A (zh) * 2023-10-24 2023-11-24 青岛农业大学 基于人工智能的水稻耐盐碱性能预测方法及系统
CN117196418A (zh) * 2023-11-08 2023-12-08 江西师范大学 一种基于人工智能的阅读教学质量评估方法及系统

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120076404A1 (en) * 2010-09-28 2012-03-29 Andrew Bryant Image color enhancement
CN106991663A (zh) * 2017-04-05 2017-07-28 淮海工学院 一种基于暗通道理论的水下彩色图像增强方法
CN107704877A (zh) * 2017-10-09 2018-02-16 哈尔滨工业大学深圳研究生院 一种基于深度学习的图像隐私感知方法
CN108062756A (zh) * 2018-01-29 2018-05-22 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法
CN108537777A (zh) * 2018-03-20 2018-09-14 西京学院 一种基于神经网络的作物病害识别方法
CN110991511A (zh) * 2019-11-26 2020-04-10 中原工学院 一种基于深度卷积神经网络的向日葵作物种子分拣方法
CN111626969A (zh) * 2020-05-22 2020-09-04 东北易华录信息技术有限公司 一种基于注意力机制的玉米病害图像处理方法
AU2020102885A4 (en) * 2020-10-20 2020-12-17 Xijing University Disease recognition method of winter jujube based on deep convolutional neural network and disease image
CN113420794A (zh) * 2021-06-04 2021-09-21 中南民族大学 一种基于深度学习的二值化Faster R-CNN柑橘病虫害识别方法
CN113627281A (zh) * 2021-07-23 2021-11-09 中南民族大学 一种基于SK-EfficientNet的轻量级农作物病害识别方法
JP6980958B1 (ja) * 2021-06-23 2021-12-15 中国科学院西北生態環境資源研究院 深層学習に基づく農村地域分けゴミ識別方法
CN114565543A (zh) * 2021-12-30 2022-05-31 上海网达软件股份有限公司 一种基于uv直方图特征的视频色彩增强方法及系统
CN114596463A (zh) * 2022-02-28 2022-06-07 复旦大学 一种基于图像的地块类型分类方法
CN115222592A (zh) * 2022-06-27 2022-10-21 南京信息工程大学 一种基于超分辨率网络和U-Net网络的水下图像增强方法及网络模型的训练方法
US20230252761A1 (en) * 2021-01-26 2023-08-10 Wuhan University Method for classifying hyperspectral images on basis of adaptive multi-scale feature extraction model

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120076404A1 (en) * 2010-09-28 2012-03-29 Andrew Bryant Image color enhancement
CN106991663A (zh) * 2017-04-05 2017-07-28 淮海工学院 一种基于暗通道理论的水下彩色图像增强方法
CN107704877A (zh) * 2017-10-09 2018-02-16 哈尔滨工业大学深圳研究生院 一种基于深度学习的图像隐私感知方法
CN108062756A (zh) * 2018-01-29 2018-05-22 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法
CN108537777A (zh) * 2018-03-20 2018-09-14 西京学院 一种基于神经网络的作物病害识别方法
CN110991511A (zh) * 2019-11-26 2020-04-10 中原工学院 一种基于深度卷积神经网络的向日葵作物种子分拣方法
CN111626969A (zh) * 2020-05-22 2020-09-04 东北易华录信息技术有限公司 一种基于注意力机制的玉米病害图像处理方法
AU2020102885A4 (en) * 2020-10-20 2020-12-17 Xijing University Disease recognition method of winter jujube based on deep convolutional neural network and disease image
US20230252761A1 (en) * 2021-01-26 2023-08-10 Wuhan University Method for classifying hyperspectral images on basis of adaptive multi-scale feature extraction model
CN113420794A (zh) * 2021-06-04 2021-09-21 中南民族大学 一种基于深度学习的二值化Faster R-CNN柑橘病虫害识别方法
JP6980958B1 (ja) * 2021-06-23 2021-12-15 中国科学院西北生態環境資源研究院 深層学習に基づく農村地域分けゴミ識別方法
CN113627281A (zh) * 2021-07-23 2021-11-09 中南民族大学 一种基于SK-EfficientNet的轻量级农作物病害识别方法
CN114565543A (zh) * 2021-12-30 2022-05-31 上海网达软件股份有限公司 一种基于uv直方图特征的视频色彩增强方法及系统
CN114596463A (zh) * 2022-02-28 2022-06-07 复旦大学 一种基于图像的地块类型分类方法
CN115222592A (zh) * 2022-06-27 2022-10-21 南京信息工程大学 一种基于超分辨率网络和U-Net网络的水下图像增强方法及网络模型的训练方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOHN WILLIAM ORILLO 等: "Identification of diseases in rice plant (oryza sativa) using back propagation Artificial Neural Network", 《2014 INTERNATIONAL CONFERENCE ON HUMANOID, NANOTECHNOLOGY, INFORMATION TECHNOLOGY, COMMUNICATION AND CONTROL, ENVIRONMENT AND MANAGEMENT (HNICEM)》 *
张善文;王振;王祖良;: "多尺度融合卷积神经网络的黄瓜病害叶片图像分割方法", 农业工程学报, no. 16 *
林萍;张华哲;何坚强;邹志勇;陈永明;: "可见光谱图与深度神经网络的垩白大米检测方法", 光谱学与光谱分析, no. 01 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117114144A (zh) * 2023-10-24 2023-11-24 青岛农业大学 基于人工智能的水稻耐盐碱性能预测方法及系统
CN117114144B (zh) * 2023-10-24 2024-01-26 青岛农业大学 基于人工智能的水稻耐盐碱性能预测方法及系统
CN117196418A (zh) * 2023-11-08 2023-12-08 江西师范大学 一种基于人工智能的阅读教学质量评估方法及系统
CN117196418B (zh) * 2023-11-08 2024-02-02 江西师范大学 一种基于人工智能的阅读教学质量评估方法及系统

Also Published As

Publication number Publication date
CN116740650B (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
CN116740650B (zh) 一种基于深度学习的作物育种监测方法及系统
CN110148120B (zh) 一种基于cnn与迁移学习的病害智能识别方法及系统
CN111985370B (zh) 一种基于混合注意力模块的农作物病虫害识别方法
CN107392091B (zh) 一种农业人工智能作物检测方法、移动终端和计算机可读介质
CN109754017B (zh) 基于可分离的三维残差网络和迁移学习高光谱图像分类方法
CN111340141A (zh) 一种基于深度学习的作物幼苗与杂草检测方法及系统
CN112257603B (zh) 高光谱图像分类方法及相关设备
WO2019136591A1 (zh) 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN113011567B (zh) 一种卷积神经网络模型的训练方法及装置
Wu et al. Learning scene gist with convolutional neural networks to improve object recognition
CN113837316B (zh) 一种基于农产品的异常区域检测方法、装置、设备及介质
Xin et al. Image recognition of crop diseases and insect pests based on deep learning
CN114187214A (zh) 一种红外与可见光图像融合系统及方法
CN114494786A (zh) 一种基于多层协调卷积神经网络的细粒度图像分类方法
CN112329818B (zh) 基于图卷积网络嵌入表征的高光谱图像非监督分类方法
CN111881924A (zh) 结合光照不变性与短曝光光照增强的暗光车照识别方法
CN109377447B (zh) 一种基于杜鹃搜索算法的Contourlet变换图像融合方法
CN116681742A (zh) 基于图神经网络的可见光与红外热成像图像配准方法
CN116523897A (zh) 一种基于互导学习的半监督浒苔检测方法及系统
CN114882385A (zh) 一种基于无人机平台的大田麦穗计数方法
CN115311544A (zh) 一种水下鱼类目标检测方法及装置
Mondal et al. Image contrast enhancement using histogram equalization: a bacteria colony optimization approach
CN117197471B (zh) 一种岩性制图方法及计算机设备
CN114581348B (zh) 一种基于植物群落行为的图像融合方法
CN112613393B (zh) 蚕病识别系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant