CN117036961A - 农作物病虫害的智能监测方法及其系统 - Google Patents
农作物病虫害的智能监测方法及其系统 Download PDFInfo
- Publication number
- CN117036961A CN117036961A CN202311168183.3A CN202311168183A CN117036961A CN 117036961 A CN117036961 A CN 117036961A CN 202311168183 A CN202311168183 A CN 202311168183A CN 117036961 A CN117036961 A CN 117036961A
- Authority
- CN
- China
- Prior art keywords
- feature map
- training
- feature
- classification
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 241000607479 Yersinia pestis Species 0.000 title claims abstract description 118
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 title claims abstract description 100
- 201000010099 disease Diseases 0.000 title claims abstract description 98
- 241000238631 Hexapoda Species 0.000 title claims abstract description 84
- 238000012544 monitoring process Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000001514 detection method Methods 0.000 claims abstract description 67
- 238000012549 training Methods 0.000 claims description 145
- 238000013527 convolutional neural network Methods 0.000 claims description 53
- 230000004927 fusion Effects 0.000 claims description 43
- 238000010586 diagram Methods 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 17
- 238000009826 distribution Methods 0.000 claims description 16
- 239000003623 enhancer Substances 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 15
- 230000004931 aggregating effect Effects 0.000 claims description 9
- 208000015181 infectious disease Diseases 0.000 claims description 6
- 238000007619 statistical method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000006870 function Effects 0.000 description 21
- 238000003860 storage Methods 0.000 description 11
- 239000003086 colorant Substances 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 238000004383 yellowing Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012272 crop production Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Catching Or Destruction (AREA)
Abstract
本申请涉及智能监测领域,其具体地公开了一种农作物病虫害的智能监测方法及其系统,其通过对待检测农作物的叶片纹理进行特征提取从而来识别农作物感染病虫害的类型。这样,有利于提高了病虫害检测的准确性,减轻了人力的工作负担,还提高了农作物病虫害防治的效率。
Description
技术领域
本申请涉及智能监测领域,且更为具体地,涉及一种农作物病虫害的智能监测方法及其系统。
背景技术
实地观察是一种重要而有效的农作物病虫害监测方法,它指的是农民和专业人员通过实地观察识别受到病虫害影响的农作物部位、程度和类型,但是这种监测方法也存在不足之处,比如实地观察中的人员的主观判断和经验水平会产生不同程度的误差,并且可能会感知相同的事物但描述和记录的细节不一样,实地观察也只能捕捉到人眼所能看到的范围,更微观和小尺度的变化人眼难以察觉。
因此,期待一种优化的农作物病虫害的智能监测方案。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种农作物病虫害的智能监测方法及其系统,其通过对待检测农作物的叶片纹理进行特征提取从而来识别农作物感染病虫害的类型。这样,有利于提高了病虫害检测的准确性,减轻了人力的工作负担,还提高了农作物病虫害防治的效率。
根据本申请的一个方面,提供了一种农作物病虫害的智能监测方法,其包括:
获取待检测农作物叶片的检测图像;
将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像;
将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图;
将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图;
将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图;
将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型;以及
基于所述分类结果,对所述待检测农作物采取对应的病虫害防治措施。
在上述农作物病虫害的智能监测方法中,所述将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像,包括:将所述检测图像输入训练完成的所述基于对抗生成网络的图像增强器的生成器以得到所述像素增强检测图像。
在上述农作物病虫害的智能监测方法中,所述将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图,包括:将所述多通道LBP纹理特征直方图通过所述卷积神经网络模型的浅层以得到浅层特征图;将所述多通道LBP纹理特征直方图通过所述卷积神经网络模型的深层以得到深层特征图;以及,使用所述卷积神经网络模型的深浅特征融合模块来融合所述浅层特征图和所述深层特征图以得到所述分类特征图。
在上述农作物病虫害的智能监测方法中,所述使用所述卷积神经网络模型的深浅特征融合模块来融合所述浅层特征图和所述深层特征图以得到所述分类特征图,包括:使用所述深浅特征融合模块将所述浅层特征图和所述深层特征图进行级联以得到所述分类特征图。
在上述农作物病虫害的智能监测方法中,所述卷积神经网络模型的浅层为4-6层,所述卷积神经网络模型的深层与所述卷积神经网络模型的浅层之间的比值大于等于5。
在上述农作物病虫害的智能监测方法中,所述将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型,包括:使用所述分类器以如下分类公式对所述分类特征图进行处理以生成所述分类结果;其中,所述分类公式为:
O=softmax{(Wn,Bn):…:(W1,B1)|Project(F)}
其中O为所述分类结果,Project(F)表示将所述分类特征图投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置向量,softmax为归一化指数函数。
在上述农作物病虫害的智能监测方法中,还包括:用于对所述深浅特征融合模块的卷积神经网络模型和所述分类器进行训练的训练阶段;其中,所述训练阶段,包括:获取待检测农作物叶片的训练检测图像;将所述训练检测图像通过所述基于对抗生成网络的图像增强器以得到训练像素增强检测图像;将所述训练像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的训练LBP纹理特征直方图;将所述各个通道的训练LBP纹理特征直方图沿通道维度进行聚合以得到训练多通道LBP纹理特征直方图;将所述训练多通道LBP纹理特征直方图通过所述使用深浅特征融合模块的卷积神经网络模型以得到训练浅层特征图和训练深层特征图,并对所述训练浅层特征图和所述训练深层特征图进行级联以得到训练分类特征图;将所述训练分类特征图通过所述分类器以得到分类损失函数值;计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值;以及,以所述分类损失函数值和所述损失概率化鲁棒性值的加权和作为损失函数值对所述深浅特征融合模块的卷积神经网络模型和所述分类器进行训练。
在上述农作物病虫害的智能监测方法中,所述计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值,包括:基于线性变换来调整所述训练浅层特征图和所述训练深层特征图之间的特征尺度关系以使得所述训练浅层特征图和所述训练深层特征图具有相同的特征尺度;计算所述训练浅层特征图和所述训练深层特征图中各组对应位置的特征值之间的差值的绝对值以得到绝对值特征图;对所述绝对值特征图中所有位置的特征值进行统计分析以得到分布差异度量值;以及,将所述分布差异度量值除以所述绝对值特征图中的最大特征值以得到所述损失概率化鲁棒性值。
根据本申请的另一方面,提供了一种农作物病虫害的智能监测系统,其包括:
农作物图像获取模块,用于获取待检测农作物叶片的检测图像;
图像增强模块,用于将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像;
颜色空间转换模块,用于将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图;
多通道聚合模块,用于将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图;
深浅特征提取模块,用于将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图;
病虫害类型识别模块,用于将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型;以及
措施采取模块,用于基于所述分类结果,对所述待检测农作物采取对应的病虫害防治措施。
与现有技术相比,本申请提供的农作物病虫害的智能监测方法及其系统,其通过对待检测农作物的叶片纹理进行特征提取从而来识别农作物感染病虫害的类型。这样,有利于提高了病虫害检测的准确性,减轻了人力的工作负担,还提高了农作物病虫害防治的效率。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请实施例的农作物病虫害的智能监测方法的流程图。
图2为根据本申请实施例的农作物病虫害的智能监测方法中的架构图。
图3为根据本申请实施例的农作物病虫害的智能监测方法中将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图的流程图。
图4为根据本申请实施例的农作物病虫害的智能监测方法中训练阶段的流程图。
图5为根据本申请实施例的农作物病虫害的智能监测方法中训练阶段里计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值的流程图。
图6为根据本申请实施例的农作物病虫害的智能监测系统的系统框图。
图7为根据本申请实施例的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
如上述背景技术所言,实地观察这一农作物病虫害监测方法,存在主观判断性过强和经验水平参差不齐的问题,这容易导致农作物病虫害的检测准确率较低,且实地观察的监测方法容易消耗大量的人力。因此,期待一种优化的农作物病虫害的智能监测方案。
近年来,深度学习以及神经网络已经广泛应用于计算机视觉、自然语言处理、文本信号处理等领域。此外,深度学习以及神经网络在图像分类、物体检测、语义分割、文本翻译等领域,也展现出了接近甚至超越人类的水平。深度学习以及神经网络的发展为农作物病虫害的智能监测提供了新的解决思路和方案。
具体地,在本申请的技术方案中,首先通过摄像头获取待检测农作物叶片的检测图像。应可以理解,获取待检测农作物叶片的检测图像是为了进行后续的图像分析和特征提取。不同类型的病虫害对农作物叶片造成的影响是不同的,有些可能会导致植株凋零、变黄或形成特殊的斑点等症状,有些可能会表现出一定的颜色变化或者特定的纹理变化等。因此,通过获取检测农作物叶片图像,有利于开展对农作物病虫害的自动化检测,提高检测的效率,降低检测成本,为农业生产提供更加精准和便捷的服务。
接着,将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像。通常情况下,获取的待检测农作物叶片图像可能会受到环境光线、阴影、拍摄设备等多种因素的干扰,导致其图像质量较差,难以直接进行后续的特征提取和分类。此时,通过应用基于对抗生成网络的图像增强器,可以将原始图像转换为更加鲜明、丰富、清晰的像素增强检测图像,有效地减少图像噪声和失真现象,提高全局和局部的图像质量,使得后续处理步骤可以更加准确地分析出叶片表面的病虫害信息。
然后,将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图。应可以理解,相比于RGB颜色空间,YCbCr颜色空间在描述颜色的同时还能分离出亮度和色度信息,在处理彩色图像时更加灵活。具体来说,将像素增强检测图像转换到YCbCr颜色空间,可以使用LBP算法对各个通道进行纹理特征提取,得到三张不同颜色通道的LBP纹理特征直方图。不同通道之间的LBP特征不完全重合,通过融合多张LBP纹理特征直方图可以得到更加丰富、准确的特征信息,有利于后续的图像分类和标记。
紧接着,将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图。将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合可以将不同颜色通道提取出的纹理特征信息进行融合,从而得到更加全面、丰富的多通道LBP纹理特征直方图。通过对多通道LBP纹理特征图进行有效的处理和分析,可以为病虫害分类和识别提供有力的支持。具体来说,提取重要的特征能够减少特征维度,避免维数灾难,同时还能够保留有效地信息,较好地表示图像内容。
进一步地,将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图。应可以理解,深浅特征融合模块可以用于将低级视觉特征(如颜色、纹理等)和高级抽象特征(如形状、结构等)进行有效整合,提高分类识别的精度和鲁棒性。具体来说,针对农作物病虫害分类的问题,使用深浅特征融合模块可以将LBP纹理特征直方图中不同颜色通道的纹理特征与更加丰富和抽象的高级特征进行有效融合,提高分类器对农作物病虫害的识别和分类精度;通过将多通道的LBP纹理特征直方图经过深浅特征融合模块处理后得到的分类特征图,可以避免由于部分视觉特征失效或过度特化而导致的分类错误,进一步提高农作物病虫害智能监测方法的实用性。在得到分类特征图后,将所述分类特征图通过分类器以得到用于表示待检测农作物感染的病虫害类型的分类结果,并在得到所述分类结果后,采取对应的病虫害防治措施。这样,提高了病虫害检测的准确性,减轻了人力的工作负担,还提高了农作物病虫害防治的效率。
特别地,在本申请的技术方案中,考虑到所述分类特征图是通过所述浅层特征图和所述深层特征图进行级联得到的,而所述浅层特征图和所述深层特征图是从所述卷积神经网络模型的不同层提取到的,因此,所述第一特征图和所述第二特征图的特征深度不同,进而导致,两者在高维特征空间中的相似性和边界鲁棒性较差,会影响融合后的分类特征图进行分类判断的准确性,如果在训练阶段的时候就能够衡量两者在嵌入空间中的相似性。通过计算这个值,可以量化所述浅层特征图和所述深层特征图之间的差异程度。通过最小化这个值,可以使得两个特征图在特征提取过程中更好地融合和对齐,从而提高特征维度的确定性和边界鲁棒性。
在本申请的技术方案中,除了分类损失函数值之外,在本申请的技术方案中,在利用梯度下降的反向传播算法来训练深度神经网络模型的过程中,除了计算训练分类特征图的分类损失函数值之外,还计算训练浅层特征图和训练深层特征图之间的损失概率化鲁棒性值。具体地,计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值的过程,包括:基于线性变换来调整所述训练浅层特征图和所述训练深层特征图之间的特征尺度关系以使得所述训练浅层特征图和所述训练深层特征图具有相同的特征尺度;计算所述训练浅层特征图和所述训练深层特征图中各组对应位置的特征值之间的差值的绝对值以得到绝对值特征图;对所述绝对值特征图中所有位置的特征值进行统计分析以得到分布差异度量值;以及,将所述分布差异度量值除以所述绝对值特征图中的最大特征值以得到所述损失概率化鲁棒性值。
继而,以所述分类损失函数值和所述损失概率化鲁棒性值的加权和作为损失函数值来训练深度神经网络模型和分类器,不仅使得所述分类特征图的特征流形能够适配于真实的类概率分布,且能够使得在所述浅层特征图和所述深层特征图的特征提取的过程中,所述浅层特征图和所述深层特征图的特征流形分布层面能够尽可能地对齐以提高所述浅层特征图和所述深层特征图的特征融合的确定性和边界鲁棒性。具体地,通过计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值,可使得所述深层特征图的数据点在嵌入空间中的距离能够尽可能地反应原始空间中的相似性,即所述浅层特征图的高维特征空间中的相似性,通过这样的方式,可使得所述浅层特征图和所述深层特征图在高维特征空间中的特征流形分布得以双向奔赴式趋合以提高所述浅层特征图和所述深层特征图在特征提取过程中的特征维度对齐度。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性方法
图1为根据本申请实施例的农作物病虫害的智能监测方法的流程图。如图1所示,根据本申请实施例的农作物病虫害的智能监测方法,包括:S110,获取待检测农作物叶片的检测图像;S120,将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像;S130,将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图;S140,将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图;S150,将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图;S160,将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型;以及,S170,基于所述分类结果,对所述待检测农作物采取对应的病虫害防治措施。
图2为根据本申请实施例的农作物病虫害的智能监测方法的架构图。如图2所示,在该架构中,首先,获取待检测农作物叶片的检测图像。接着,将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像。然后,将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图。紧接着,将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图。进而,将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图。接着,将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型。最后,基于所述分类结果,对所述待检测农作物采取对应的病虫害防治措施。
在步骤S110中,获取待检测农作物叶片的检测图像。应可以理解,获取待检测农作物叶片的检测图像是为了进行后续的图像分析和特征提取。不同类型的病虫害对农作物叶片造成的影响是不同的,有些可能会导致植株凋零、变黄或形成特殊的斑点等症状,有些可能会表现出一定的颜色变化或者特定的纹理变化等。因此,在本申请实施例中,首先通过摄像头获取待检测农作物叶片的检测图像。
在步骤S120中,将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像。基于对抗生成网络的图像增强器是一种利用深度学习中的对抗生成网络技术来增强图像质量的方法。该技术通过训练一个生成器和一个判别器来实现图像增强。生成器网络负责将原始的图像转换为增强后的图像,而判别器网络则负责判断生成器网络生成的图像是否真实。在训练的过程中,生成器网络和判别器网络不断进行对抗学习,最终生成器网络可以生成高质量的增强图像。通常情况下,获取的待检测农作物叶片图像可能会受到环境光线、阴影、拍摄设备等多种因素的干扰,导致其图像质量较差,难以直接进行后续的特征提取和分类。此时,通过应用基于对抗生成网络的图像增强器,可以将原始图像转换为更加鲜明、丰富、清晰的像素增强检测图像,有效地减少图像噪声和失真现象,提高全局和局部的图像质量,使得后续处理步骤可以更加准确地分析出叶片表面的病虫害信息。
具体地,在步骤S120中,所述将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像,包括:将所述检测图像输入训练完成的所述基于对抗生成网络的图像增强器的生成器以得到所述像素增强检测图像。
在步骤S130中,将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图。应可以理解,相比于RGB颜色空间,YCbCr颜色空间在描述颜色的同时还能分离出亮度和色度信息,在处理彩色图像时更加灵活。具体来说,将像素增强检测图像转换到YCbCr颜色空间,可以使用LBP算法对各个通道进行纹理特征提取,得到三张不同颜色通道的LBP纹理特征直方图。LBP算法是一种局部特征描述算法,它通过比较像素与其领域像素的灰度值大小关系来构造二进制模式,然后将二进制模式转换为十进制数,得到一个LBP码。不同通道之间的LBP特征不完全重合,通过融合多张LBP纹理特征直方图可以得到更加丰富、准确的特征信息,有利于后续的图像分类和标记。LBP纹理特征直方图是将图像中所有像素的LBP码按照出现频率统计在不同的直方图区间里,最终得到一个用于描述图像纹理特征的直方图。
在步骤S140中,将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图。应可以理解,LBP纹理特征直方图是将图像中所有像素的LBP码按照出现频率统计在不同的直方图区间里,最终得到一个用于描述图像纹理特征的直方图。
在步骤S150中,将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图。应可以理解,深浅特征融合模块可以用于将低级视觉特征(如颜色、纹理等)和高级抽象特征(如形状、结构等)进行有效整合,提高分类识别的精度和鲁棒性。具体来说,针对农作物病虫害分类的问题,使用深浅特征融合模块可以将LBP纹理特征直方图中不同颜色通道的纹理特征与更加丰富和抽象的高级特征进行有效融合,提高分类器对农作物病虫害的识别和分类精度;通过将多通道的LBP纹理特征直方图经过深浅特征融合模块处理后得到的分类特征图,可以避免由于部分视觉特征失效或过度特化而导致的分类错误,进一步提高农作物病虫害智能监测方法的实用性。
图3为根据本申请实施例的农作物病虫害的智能监测方法中将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图的流程图。如图3所示,所述将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图,包括:S151,将所述多通道LBP纹理特征直方图通过所述卷积神经网络模型的浅层以得到浅层特征图;S152,将所述多通道LBP纹理特征直方图通过所述卷积神经网络模型的深层以得到深层特征图;以及,S153,使用所述卷积神经网络模型的深浅特征融合模块来融合所述浅层特征图和所述深层特征图以得到所述分类特征图。其中,所述使用所述卷积神经网络模型的深浅特征融合模块来融合所述浅层特征图和所述深层特征图以得到所述分类特征图,包括:使用所述深浅特征融合模块将所述浅层特征图和所述深层特征图进行级联以得到所述分类特征图。更具体地,所述卷积神经网络模型的浅层为4-6层,所述卷积神经网络模型的深层与所述卷积神经网络模型的浅层之间的比值大于等于5。
在步骤S160中,将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型。分类器是一种机器学习算法,可以将输入的特征向量映射到对应的类别标签上,从而实现对待检测农作物感染的病虫害类型的自动识别。
具体地,在步骤S160中,所述将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型,包括:使用所述分类器以如下分类公式对所述分类特征图进行处理以生成所述分类结果;其中,所述分类公式为:
O=softmax{(Wn,Bn):…:(W1,B1)|Project(F)}
其中O为所述分类结果,Project(F)表示将所述分类特征图投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置向量,softmax为归一化指数函数。
在步骤S170中,基于所述分类结果,对所述待检测农作物采取对应的病虫害防治措施。通过将分类结果用于表示待检测农作物感染的病虫害类型,农业生产者可以及时处理农作物病虫害问题,进而保障农作物生产的品质。
具体地,在本申请实例中,还包括:用于对所述深浅特征融合模块的卷积神经网络模型和所述分类器进行训练的训练阶段。
图4为根据本申请实施例的农作物病虫害的智能监测方法中训练阶段的流程图。如图4所示,所述训练阶段,包括:S210,获取待检测农作物叶片的训练检测图像;S220,将所述训练检测图像通过所述基于对抗生成网络的图像增强器以得到训练像素增强检测图像;S230,将所述训练像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的训练LBP纹理特征直方图;S240,将所述各个通道的训练LBP纹理特征直方图沿通道维度进行聚合以得到训练多通道LBP纹理特征直方图;S250,将所述训练多通道LBP纹理特征直方图通过所述使用深浅特征融合模块的卷积神经网络模型以得到训练浅层特征图和训练深层特征图,并对所述训练浅层特征图和所述训练深层特征图进行级联以得到训练分类特征图;S260,将所述训练分类特征图通过所述分类器以得到分类损失函数值;S270,计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值;以及,S280,以所述分类损失函数值和所述损失概率化鲁棒性值的加权和作为损失函数值对所述深浅特征融合模块的卷积神经网络模型和所述分类器进行训练。
特别地,在本申请的技术方案中,考虑到所述分类特征图是通过所述浅层特征图和所述深层特征图进行级联得到的,而所述浅层特征图和所述深层特征图是从所述卷积神经网络模型的不同层提取到的,因此,所述第一特征图和所述第二特征图的特征深度不同,进而导致,两者在高维特征空间中的相似性和边界鲁棒性较差,会影响融合后的分类特征图进行分类判断的准确性,如果在训练阶段的时候就能够衡量两者在嵌入空间中的相似性。通过计算这个值,可以量化所述浅层特征图和所述深层特征图之间的差异程度。通过最小化这个值,可以使得两个特征图在特征提取过程中更好地融合和对齐,从而提高特征维度的确定性和边界鲁棒性。
图5为根据本申请实施例的农作物病虫害的智能监测方法中训练阶段里计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值的流程图。如图5所示,所述计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值,包括:S271,基于线性变换来调整所述训练浅层特征图和所述训练深层特征图之间的特征尺度关系以使得所述训练浅层特征图和所述训练深层特征图具有相同的特征尺度;S272,计算所述训练浅层特征图和所述训练深层特征图中各组对应位置的特征值之间的差值的绝对值以得到绝对值特征图;S273,对所述绝对值特征图中所有位置的特征值进行统计分析以得到分布差异度量值;以及,S274,将所述分布差异度量值除以所述绝对值特征图中的最大特征值以得到所述损失概率化鲁棒性值。
继而,以所述分类损失函数值和所述损失概率化鲁棒性值的加权和作为损失函数值来训练深度神经网络模型和分类器,不仅使得所述分类特征图的特征流形能够适配于真实的类概率分布,且能够使得在所述浅层特征图和所述深层特征图的特征提取的过程中,所述浅层特征图和所述深层特征图的特征流形分布层面能够尽可能地对齐以提高所述浅层特征图和所述深层特征图的特征融合的确定性和边界鲁棒性。具体地,通过计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值,可使得所述深层特征图的数据点在嵌入空间中的距离能够尽可能地反应原始空间中的相似性,即所述浅层特征图的高维特征空间中的相似性,通过这样的方式,可使得所述浅层特征图和所述深层特征图在高维特征空间中的特征流形分布得以双向奔赴式趋合以提高所述浅层特征图和所述深层特征图在特征提取过程中的特征维度对齐度。
综上所述,基于本申请实施例的农作物病虫害的智能监测方法被阐明,其通过对待检测农作物的叶片纹理进行特征提取从而来识别农作物感染病虫害的类型。这样,有利于提高了病虫害检测的准确性,减轻了人力的工作负担,还提高了农作物病虫害防治的效率。
示例性系统
图6为根据本申请实施例的农作物病虫害的智能监测系统的系统框图。如图6所示,根据本申请实施例的农作物病虫害的智能监测系统100,包括:农作物图像获取模块110,用于获取待检测农作物叶片的检测图像;图像增强模块120,用于将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像;颜色空间转换模块130,用于将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图;多通道聚合模块140,用于将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图;深浅特征提取模块150,用于将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图;病虫害类型识别模块160,用于将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型;以及,措施采取模块170,用于基于所述分类结果,对所述待检测农作物采取对应的病虫害防治措施。
在一个示例中,在上述农作物病虫害的智能监测系统100中,所述图像增强模块120,进一步用于将所述检测图像输入训练完成的所述基于对抗生成网络的图像增强器的生成器以得到所述像素增强检测图像。
在一个示例中,在上述农作物病虫害的智能监测系统100中,所述深浅特征提取模块150,包括:浅层特征提取单元,用于将所述多通道LBP纹理特征直方图通过所述卷积神经网络模型的浅层以得到浅层特征图;深层特征提取单元,用于将所述多通道LBP纹理特征直方图通过所述卷积神经网络模型的深层以得到深层特征图;以及,融合单元,用于使用所述卷积神经网络模型的深浅特征融合模块来融合所述浅层特征图和所述深层特征图以得到所述分类特征图。
在一个示例中,在上述农作物病虫害的智能监测系统100中,所述融合单元,进一步用于使用所述深浅特征融合模块将所述浅层特征图和所述深层特征图进行级联以得到所述分类特征图。
在一个示例中,在上述农作物病虫害的智能监测系统100中,所述卷积神经网络模型的浅层为4-6层,所述卷积神经网络模型的深层与所述卷积神经网络模型的浅层之间的比值大于等于5。
在一个示例中,在上述农作物病虫害的智能监测系统100中,所述病虫害类型识别模块160,进一步用于:使用所述分类器以如下分类公式对所述分类特征图进行处理以生成所述分类结果;其中,所述分类公式为:
O=softmax{(Wn,Bn):…:(W1,B1)|Project(F)}
其中O为所述分类结果,Project(F)表示将所述分类特征图投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置向量,softmax为归一化指数函数。
在一个示例中,在上述农作物病虫害的智能监测系统100中,还包括:用于对所述深浅特征融合模块的卷积神经网络模型和所述分类器进行训练的训练模块;其中,所述训练模块,包括:训练农作物图像获取单元,用于获取待检测农作物叶片的训练检测图像;训练图像增强单元,用于将所述训练检测图像通过所述基于对抗生成网络的图像增强器以得到训练像素增强检测图像;训练颜色空间转换单元,用于将所述训练像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的训练LBP纹理特征直方图;训练多通道聚合单元,用于将所述各个通道的训练LBP纹理特征直方图沿通道维度进行聚合以得到训练多通道LBP纹理特征直方图;训练深浅特征提取单元,用于将所述训练多通道LBP纹理特征直方图通过所述使用深浅特征融合模块的卷积神经网络模型以得到训练浅层特征图和训练深层特征图,并对所述训练浅层特征图和所述训练深层特征图进行级联以得到训练分类特征图;分类损失函数计算单元,用于将所述训练分类特征图通过所述分类器以得到分类损失函数值;损失概率化鲁棒性值计算单元,用于计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值;以及,模型训练单元,用于以所述分类损失函数值和所述损失概率化鲁棒性值的加权和作为损失函数值对所述深浅特征融合模块的卷积神经网络模型和所述分类器进行训练。
在一个示例中,在上述农作物病虫害的智能监测系统100中,所述损失概率化鲁棒性值计算单元,包括:线性变换子单元,用于基于线性变换来调整所述训练浅层特征图和所述训练深层特征图之间的特征尺度关系以使得所述训练浅层特征图和所述训练深层特征图具有相同的特征尺度;绝对值特征图生成子单元,用于计算所述训练浅层特征图和所述训练深层特征图中各组对应位置的特征值之间的差值的绝对值以得到绝对值特征图;统计分析子单元,用于对所述绝对值特征图中所有位置的特征值进行统计分析以得到分布差异度量值;以及,损失概率化鲁棒性值生成子单元,用于将所述分布差异度量值除以所述绝对值特征图中的最大特征值以得到所述损失概率化鲁棒性值。
综上所述,基于本申请实施例的农作物病虫害的智能监测系统100被阐明,其通过对待检测农作物的叶片纹理进行特征提取从而来识别农作物感染病虫害的类型。这样,有利于提高了病虫害检测的准确性,减轻了人力的工作负担,还提高了农作物病虫害防治的效率。
示例性电子设备
下面,参考图7来描述根据本申请实施例的电子设备。
图7为根据本申请实施例的电子设备的框图。
如图7所示,电子设备10包括一个或多个处理器11和存储器12。
处理器11可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的农作物病虫害的智能监测方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如待检测农作物叶片的检测图像等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
该输入装置13可以包括例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括判断待检测农作物感染的病虫害类型的结果等。该输出装置14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图7中仅示出了该电子设备10中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的农作物病虫害的智能监测方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的农作物病虫害的智能监测方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
Claims (10)
1.一种农作物病虫害的智能监测方法,其特征在于,包括:
获取待检测农作物叶片的检测图像;
将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像;
将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图;
将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图;
将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图;
将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型;以及
基于所述分类结果,对所述待检测农作物采取对应的病虫害防治措施。
2.根据权利要求1所述的农作物病虫害的智能监测方法,其特征在于,将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像,包括:将所述检测图像输入训练完成的所述基于对抗生成网络的图像增强器的生成器以得到所述像素增强检测图像。
3.根据权利要求2所述的农作物病虫害的智能监测方法,其特征在于,将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图,包括:
将所述多通道LBP纹理特征直方图通过所述卷积神经网络模型的浅层以得到浅层特征图;
将所述多通道LBP纹理特征直方图通过所述卷积神经网络模型的深层以得到深层特征图;以及
使用所述卷积神经网络模型的深浅特征融合模块来融合所述浅层特征图和所述深层特征图以得到所述分类特征图。
4.根据权利要求3所述的农作物病虫害的智能监测方法,其特征在于,使用所述卷积神经网络模型的深浅特征融合模块来融合所述浅层特征图和所述深层特征图以得到所述分类特征图,包括:使用所述深浅特征融合模块将所述浅层特征图和所述深层特征图进行级联以得到所述分类特征图。
5.根据权利要求4所述的农作物病虫害的智能监测方法,其特征在于,所述卷积神经网络模型的浅层为4-6层,所述卷积神经网络模型的深层与所述卷积神经网络模型的浅层之间的比值大于等于5。
6.根据权利要求5所述的农作物病虫害的智能监测方法,其特征在于,将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型,包括:使用所述分类器以如下分类公式对所述分类特征图进行处理以生成所述分类结果;
其中,所述分类公式为:
O=softmax{(Wn,Bn):…:(W1,B1)|Project(F)}
其中O为所述分类结果,Project(F)表示将所述分类特征图投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置向量,softmax为归一化指数函数。
7.根据权利要求6所述的农作物病虫害的智能监测方法,其特征在于,还包括:用于对所述深浅特征融合模块的卷积神经网络模型和所述分类器进行训练的训练阶段;
其中,所述训练阶段,包括:
获取待检测农作物叶片的训练检测图像;
将所述训练检测图像通过所述基于对抗生成网络的图像增强器以得到训练像素增强检测图像;
将所述训练像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的训练LBP纹理特征直方图;
将所述各个通道的训练LBP纹理特征直方图沿通道维度进行聚合以得到训练多通道LBP纹理特征直方图;
将所述训练多通道LBP纹理特征直方图通过所述使用深浅特征融合模块的卷积神经网络模型以得到训练浅层特征图和训练深层特征图,并对所述训练浅层特征图和所述训练深层特征图进行级联以得到训练分类特征图;
将所述训练分类特征图通过所述分类器以得到分类损失函数值;
计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值;以及
以所述分类损失函数值和所述损失概率化鲁棒性值的加权和作为损失函数值对所述深浅特征融合模块的卷积神经网络模型和所述分类器进行训练。
8.根据权利要求7所述的农作物病虫害的智能监测方法,其特征在于,计算所述训练浅层特征图和所述训练深层特征图之间的损失概率化鲁棒性值,包括:
基于线性变换来调整所述训练浅层特征图和所述训练深层特征图之间的特征尺度关系以使得所述训练浅层特征图和所述训练深层特征图具有相同的特征尺度;
计算所述训练浅层特征图和所述训练深层特征图中各组对应位置的特征值之间的差值的绝对值以得到绝对值特征图;
对所述绝对值特征图中所有位置的特征值进行统计分析以得到分布差异度量值;以及
将所述分布差异度量值除以所述绝对值特征图中的最大特征值以得到所述损失概率化鲁棒性值。
9.一种农作物病虫害的智能监测系统,其特征在于,包括:
农作物图像获取模块,用于获取待检测农作物叶片的检测图像;
图像增强模块,用于将所述检测图像通过基于对抗生成网络的图像增强器以得到像素增强检测图像;
颜色空间转换模块,用于将所述像素增强检测图像从RGB颜色空间转化为YCbCr颜色空间并抽取各个通道的LBP纹理特征直方图;
多通道聚合模块,用于将所述各个通道的LBP纹理特征直方图沿通道维度进行聚合以得到多通道LBP纹理特征直方图;
深浅特征提取模块,用于将所述多通道LBP纹理特征直方图通过使用深浅特征融合模块的卷积神经网络模型以得到分类特征图;
病虫害类型识别模块,用于将所述分类特征图通过分类器以得到分类结果,所述分类结果用于表示待检测农作物感染的病虫害类型;以及
措施采取模块,用于基于所述分类结果,对所述待检测农作物采取对应的病虫害防治措施。
10.根据权利要求9所述的农作物病虫害的智能监测系统,其特征在于,所述图像增强模块,用于:将所述检测图像输入训练完成的所述基于对抗生成网络的图像增强器的生成器以得到所述像素增强检测图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311168183.3A CN117036961A (zh) | 2023-09-11 | 2023-09-11 | 农作物病虫害的智能监测方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311168183.3A CN117036961A (zh) | 2023-09-11 | 2023-09-11 | 农作物病虫害的智能监测方法及其系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117036961A true CN117036961A (zh) | 2023-11-10 |
Family
ID=88622898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311168183.3A Withdrawn CN117036961A (zh) | 2023-09-11 | 2023-09-11 | 农作物病虫害的智能监测方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117036961A (zh) |
-
2023
- 2023-09-11 CN CN202311168183.3A patent/CN117036961A/zh not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110110799B (zh) | 细胞分类方法、装置、计算机设备和存储介质 | |
CN109086811B (zh) | 多标签图像分类方法、装置及电子设备 | |
CN111524137B (zh) | 基于图像识别的细胞识别计数方法、装置和计算机设备 | |
CN107679466B (zh) | 信息输出方法和装置 | |
Liu et al. | A vision-based robust grape berry counting algorithm for fast calibration-free bunch weight estimation in the field | |
CN110569837A (zh) | 优化损伤检测结果的方法及装置 | |
CN112633297B (zh) | 目标对象的识别方法、装置、存储介质以及电子装置 | |
CN111815564B (zh) | 一种检测丝锭的方法、装置及丝锭分拣系统 | |
CN110956615B (zh) | 图像质量评估模型训练方法、装置、电子设备及存储介质 | |
CN112819821B (zh) | 一种细胞核图像检测方法 | |
CN112365497A (zh) | 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统 | |
Yuan et al. | A method for the evaluation of image quality according to the recognition effectiveness of objects in the optical remote sensing image using machine learning algorithm | |
CN113111947B (zh) | 图像处理方法、装置和计算机可读存储介质 | |
CN115439654B (zh) | 动态约束下的弱监督农田地块精细化分割方法及系统 | |
Geng et al. | An improved helmet detection method for YOLOv3 on an unbalanced dataset | |
CN113469950A (zh) | 一种基于深度学习的复合绝缘子异常发热缺陷的诊断方法 | |
Narmatha et al. | Skin cancer detection from dermoscopic images using Deep Siamese domain adaptation convolutional Neural Network optimized with Honey Badger Algorithm | |
CN114359787A (zh) | 目标属性识别方法、装置、计算机设备及存储介质 | |
Kajale | Detection & reorganization of plant leaf diseases using image processing and Android OS | |
CN112215303A (zh) | 一种基于自学属性的图像理解方法及系统 | |
CN109255805B (zh) | 机器学习的工业智能数据收集系统和方法 | |
CN111079807A (zh) | 一种地物分类方法及装置 | |
Li et al. | Development of a single-leaf disease severity automatic grading system based on image processing | |
CN111582404B (zh) | 内容分类方法、装置及可读存储介质 | |
CN117036961A (zh) | 农作物病虫害的智能监测方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20231110 |
|
WW01 | Invention patent application withdrawn after publication |