CN114764827B - 一种自适应低光照场景下的桑叶病虫害检测方法 - Google Patents

一种自适应低光照场景下的桑叶病虫害检测方法 Download PDF

Info

Publication number
CN114764827B
CN114764827B CN202210456922.8A CN202210456922A CN114764827B CN 114764827 B CN114764827 B CN 114764827B CN 202210456922 A CN202210456922 A CN 202210456922A CN 114764827 B CN114764827 B CN 114764827B
Authority
CN
China
Prior art keywords
swin
model
transformer
ztoc
toc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210456922.8A
Other languages
English (en)
Other versions
CN114764827A (zh
Inventor
吴琪
吴云志
曾涛
乐毅
张友华
余克健
胡楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Agricultural University AHAU
Original Assignee
Anhui Agricultural University AHAU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Agricultural University AHAU filed Critical Anhui Agricultural University AHAU
Priority to CN202210456922.8A priority Critical patent/CN114764827B/zh
Publication of CN114764827A publication Critical patent/CN114764827A/zh
Application granted granted Critical
Publication of CN114764827B publication Critical patent/CN114764827B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种自适应低光照场景下的桑叶病虫害检测方法,包括以下步骤:步骤1、收集桑叶病虫害图片作为数据集;步骤2、将数据集分为训练集和测试集,并进行预处理;步骤3、构建ZTOC Swin Transformer模型,对模型进行训练得到最优配置参数;步骤4、通过参数为最优配置参数的模型对待识别的桑叶健康状态图像进行识别,得到桑叶病害检测结果。本发明可适应各种光照场景,并能够降低计算量,提高检测效率和准确性。

Description

一种自适应低光照场景下的桑叶病虫害检测方法
技术领域
本发明涉及病虫害图像检测方法领域,具体是一种自适应低光照场景下的桑叶病虫害检测方法。
背景技术
在桑树的种植过程中,桑树病害是因病原微生物侵染或不适宜的环境条件而导致的生长发育不良、桑叶产量减低和品质变劣的现象。因此桑叶的病虫害防治一直是主要问题,如果不及时防治,会让桑叶种植户减少收益。所以及时防治病虫害是从根本降低损失的关键。桑叶常见的病虫害有:桑萎缩病、桑疫病、桑褐斑病等等,寄生性类病害还有桑根朽病、桑干枯病、桑膏药病、桑白粉病、桑污叶病和桑椹菌核病等;因不良环境条件而导致的非寄生性病害有粗皮病、流汁病、失绿病和带化病等。桑树病害防治措施因病害种类而有不同重点。但是桑叶的病虫害防治不能在高温天用药,否则很容易造成桑叶出现枯萎发黄现象,所以在低光照下对桑叶进行病虫害防治很有效果。
随着科学技术的发展,计算机视觉神经网络图像识别已经广泛的运用到农业上,通过图像识别,即使在环境极其恶劣的低光照下,也能够精准的找到桑叶的病虫害,从而对桑叶的种植与病虫害预防起到了关键性的作用。但传统的基于神经网络图像识别进行病虫害检测时,检测效果受光线因素影响大,在天气恶劣的情况下会导致准确率低、计算量大、精确度不高的问题。
发明内容
本发明的目的是提供一种自适应低光照场景下的桑叶病虫害检测方法,以解决现有技术基于神经网络图像识别的桑叶病虫害检测方法存在的准确率低、计算量大且环境适应能力差的问题。
为了达到上述目的,本发明所采用的技术方案为:
一种自适应低光照场景下的桑叶病虫害检测方法,包括以下步骤:
步骤1、获取多个桑叶病虫害图像作为数据集;
步骤2、将步骤1得到的数据集分为训练集和测试集,并分别对训练集和测试集进行预处理;
步骤3、以Swin Transformer模型为基础,在Swin Transformer模型的相对位置编码表后添加多层感知机和残差结构以进行优化,由此得到TOC Swin Transformer模型;Zero-DCE模型的输出是一张增强后的图片,TOC Swin Transformer输入为图片形式,因此将TOC Swin Transformer模型的输入与 Zero-DCE模型的输出连接,由此得到ZTOC SwinTransformer模型;
将步骤2中得到的训练集输入至ZTOC Swin Transformer模型进行训练,训练时,冻结Zero-DCE的权重,只训练TOC Swin Transformer部分;训练时利用 ZTOC SwinTransformer模型中的TOC Swin Transformer部分的自注意力机制,将ZTOC SwinTransformer模型的输入映射成query向量、key向量、value向量,同时将这三个向量中的信息传递至ZTOC Swin Transformer模型的优化的相对位置编码表中,由相对位置编码表指导生成优化的相对位置编码,并在之后连接多层感知机,达到融合空间信息的作用,残差结构的连接避免了信息传递过程的梯度消失;
ZTOC Swin Transformer模型训练后的输出结果为识识别的桑叶的病害类型,将ZTOC Swin Transformer模型训练后的输出结果与步骤2得到的测试集进行误差计算,然后基于误差计算结果调整ZTOC Swin Transformer模型的配置参数,由此经过多次训练,得到误差计算结果符合预期时的ZTOC Swin Transformer模型的配置参数作为最优配置参数;
步骤4、设置ZTOC Swin Transformer模型的配置参数为所述最优配置参数,将待识别桑叶病虫害数据集输入至参数调整为最优配置参数的ZTOC Swin Transformer模型,由ZTOC Swin Transformer模型输出最终的最终的桑叶病虫害预测识别结果。
进一步的,步骤2中的预处理依次包括Mosaic数据广增、随机翻转、缩放、随机裁剪、归一化。
进一步的,所述训练集中数据进行预处理时,使用Mosaic数据增强,同时以设定的概率进行随机翻转,并从若干种尺度中随机挑选一种以对训练集中数据进行缩放。
进一步的,步骤3中,TOC Swin Transformer模型是以Swin Transformer为基本模型改进而来,通过应用迁移学习、优化的上下文位置偏置嵌入、TOC Swin Transformer模型的块划分,将输入的图像分成n个大小为相同的块,并进行展平操作,得到x={x1,x2,…,xn},其中x表示经过块划分后得到的向量,xi表示第i个窗口,i=1、2、3……n;TOC SwinTransformer模型中第i个自注意力机制的输出zi,query、key、value是由输入xi与自注意力机制中的三个不同的参数矩阵相乘得到。
进一步的,步骤3中,所述Zero-DCE模型预先使用DARK FACE数据集进行训练,此模型将低光照的图片作为输入,输出光线增强后的照片。其输出能作为TOC SwinTransformer的输入。将训练后的Zero-DCE模型添加至TOC Swin Transformer前构成ZTOCSwin Transformer模型,也就是Zero-DCE模型的输出作为TOC Swin Transformer的输入。
进一步的,步骤3中的误差计算包括分类误差计算和回归误差计算。
与现有技术相比,本发明的优点为:
本发明基于ZTOC Swin Transformer模型对待识别桑叶病虫害图片进行检测,从而实现桑叶病虫害类型的检测,其中所使用的ZTOC Swin Transformer模型中通过添加Zero-DCE模块,提高不同光照条件下的适用性,同时使用MLP 和残差结构优化模型中自注意机制的相对位置编码模块,增加模型的精度,提高检测的正确性。本发明方法能够高效精准的分析出桑叶种植下的桑叶病虫害情况,能够减少人工管理成本,同时提高识别桑叶病虫害检测的正确性,避免了人为主观上的误判。
附图说明
图1是本发明实施例方法流程框图。
图2是本发明实施例实施的Mosaic数据增强操作过程。
图3是本发明实施例ZTOC Swin Transformer模型的结构图。
图4是本发明实施例Relative Position Bias信息交互过程的结构图。
图5是本发明实施例Relative Position Bias Table部分的改进结构图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1所示,本实施例一种自适应低光照场景下的桑叶病虫害检测方法,包括以下步骤:
(1)准备数据集:
在实地采集和网上采集桑叶病虫害图片,作为本实施例的桑叶病虫害数据集。
(2)处理数据集:
将步骤(1)得到的数据集中的数据,按7:3的比例划分为训练集和测试集,并分别对训练集、测试集中的数据进行预处理。
预处理依次包括Mosaic数据广增、随机翻转、缩放和填充。
其中,训练集中数据进行预处理时,以0.5的概率进行随机翻转,并从11 种尺度中随机挑选1种以对训练集中数据进行缩放,能够完成适应多尺度的图片输入,其中Mosaic操作过程如图2所示,同时对数据进行填充(Pad),以避免特征损失,保留数据集的特征。
(2)构建Zero-DCE模型
为实现对图片的增强,本发明利用Zero-DCE网络估计非线性二阶曲线 LE-curve来对图片进行像素级的增强,
LE-curve计算如下:
LE(I(x);α)=I(x)+αI(x)(1-I(x))
其中x为像素坐标,I(x)为相应坐标下的值,LE(I(x);α)为增强后的值,α为可训练的参数(α∈[-1,1])应用时,RGB通道上的值应用LE-curve,进行迭代操作,以达到高阶曲线作用。
此模型将低光照的图片作为输入,输出光线增强后的照片。其输出能作为 TOCSwin Transformer的输入。
(3)构建ZTOC Swin Transformer模型,并进行训练,以得到最优化配置参数:
TOC Swin Transformer模型是基于微软亚洲研究院在2021年提出的SwinTranformer改进而来,本发明通过对Swin Transformer模型中的relative position bias(相对位置编码)模型做进一步优化,得到TOC Swin Transformer 模型。
TOC Swin Transformer中的自注意力模块是将query、key、value语义信息传递给相对位置编码(Relative Position Bias),相对位置编码(Relative Position Bias)是由相对位置编码表(Relative Position Bias Table)指导生成,本发明在相对位置编码表(Relative Position Bias Table)后添加一个多层感知机(MLP)和残差结构进一步丰富相对位置编码(Relative Position Bias) 的信息,来提升模型的精确性,改进得到的TOCSwin Transformer模型结构如图5所示,多层感知机置于相对位置编码表后,多层感知机内含有两层隐藏层,设相对位置编码表最后一个维度为C,则第一个线性层的输出维度是4C,第二层线性层的输出维度为C,因此通过多层感知机后的相对位置编码表维度保持不变,连接多层感知机的目的是为了融合空间信息,来达到提升模型精度的目的,残差的结构是将相对位置编码与key和query相乘后的运算结果进行矩阵的加法运算。
Self Attention的输入为图片窗口(windows),其大小由超参数window_size 设定,window_size的大小为W*H,W表示窗口的宽,H表示窗口的长,W和H取值相同,默认为7*7大小。通过将特征图根据window_size划分得来。相对位置编码(Relative position bias)则是计算某一位置上与其他位置上的相对坐标。计算(p,q)相对位置时,对应位置(i,j)的计算公式如下。
Pi,j,p,q=(p-i,j-i)
Pi,j,p,q为第p行第j列与第i行第j列上的相对位置差,p,i表示位置的横坐标,q,j表示位置的纵坐标。其中(p,i={0,1…,W-1}q,j={0,1…,H-1})。行标和列标上都加W-1使得行标与列标上的值不小于0,之后在行标乘上2H-1, 再将行标与列标相加,再将W*H个矩阵拼接,由此可得到WH*WH的相对位置编码。再通过相对位置编码表(Relative PositionBias)查询对应位置的取值作为最终的相对位置编码。
相对位置编码表大小为(2W-1)*(2W-1),该表在训练前随机初始化,能够通过训练不断学习。本发明在其之后连接一个多层感知机MLP进一步提升相对位置编码的信息丰富程度。本发明根据query,key,value分别建立对应的相对位置编码(Relative PositionBias),其结构如图4所示。
Swin Transformer模型中的相对位置编码(Relative Position Bias)模块没有与query、key和value值进行交互,因此缺乏足够信息,其原来的计算公式如下:
Attention
发明将相对位置编码表(Relative Position Bias Table)修改成基于qkv 信息交互的结构,并引入残差机制进一步丰富信息,避免信息丢失,其计算公式如下:
Attention
其中:
Bq,k=Q(Bq))+K(Bk))
为自注意力模块中的query,key,value向量,Bq,B*,Bv都为对应Q,K,V的相对位置矩阵,,d为Self Attention输出向量z的维度。
(4)将构建好的Zero-DCE和TOC Swin Transformer模型组合成本发明最终的ZTOCSwin Transformer模型,其结构如图3所示。
本发明ZTOC Swin Transformer模型中,增加了适应多光线场景的Zero-DCE 模块,同时对比传统的相对位置偏置,增加了与query、value、key三个向量的信息传递,在相对位置编码表(Relative Position Bias Table)后添加了多层感知机(MLP),以进一步融合信息,并增加了残差模块,避免信息在传递过程中损失,因此相比传统的相对位置编码,本发明方法大大减少了参数数量,同时增加了适用场景,使用了最新的目标检测框架并加以改进,对比其他的桑叶病虫害检测模型有着更好的准确性。
经过多次训练,每次训练时由ZTOC Swin Transformer模型输出桑叶病虫害检测状态作为输出结果。将模型输出结果与步骤2划分的测试集进行分类误差和回归误差计算,根据验证和测试结果将训练后的ZTOC Swin Transformer模型的配置参数调节为最优配置参数,由此最优配置参数下的ZTOC Swin Transformer模型作为最终的模型。
(4)图像识别:
选择六种健康、桑萎缩病、桑疫病、桑褐斑病、桑赤锈病和其他病害。将这些桑叶病害图像数据作为待识别数据集,输入至步骤(3)最终的ZTOC Swin Transformer模型中,由ZTOC Swin Transformer模型输出桑叶病害检测结果,得到输入的图像属于哪一种桑叶病虫害情况的信息,实现精准辨别检测。
本发明所述的实施例仅仅是对本发明的优选实施方式进行的描述,并非对本发明构思和范围进行限定,在不脱离本发明设计思想的前提下,本领域中工程技术人员对本发明的技术方案作出的各种变型和改进,均应落入本发明的保护范围,本发明请求保护的技术内容,已经全部记载在权利要求书中。

Claims (5)

1.一种自适应低光照场景下的桑叶病虫害检测方法,其特征在于,包括以下步骤:
步骤1、获取多个桑叶病虫害图像作为数据集;
步骤2、将步骤1得到的数据集分为训练集和测试集,并分别对训练集和测试集进行预处理;
步骤3、以Swin Transformer模型为基础,在Swin Transformer模型的相对位置编码表后添加多层感知机和残差结构以进行优化,由此得到TOC SwinTransformer模型;Zero-DCE模型的输出是一张增强后的图片,TOC SwinTransformer输入为图片形式,因此将TOC SwinTransformer模型的输入与Zero-DCE模型的输出连接,由此得到ZTOC Swin Transformer模型;
将步骤2中得到的训练集输入至ZTOC Swin Transformer模型进行训练,训练时,冻结Zero-DCE的权重,只训练TOC Swin Transformer部分;训练时利用ZTOC Swin Transformer模型中的TOC Swin Transformer部分的自注意力机制,将ZTOC Swin Transformer模型的输入映射成query向量、key向量、value向量,同时将这三个向量中的信息传递至ZTOC SwinTransformer模型的优化的相对位置编码表中,由相对位置编码表指导生成优化的相对位置编码,并在之后连接多层感知机,达到融合空间信息的作用,残差结构的连接避免了信息传递过程的梯度消失;
ZTOC Swin Transformer模型训练后的输出结果为识别的桑叶的病害类型,将ZTOCSwin Transformer模型训练后的输出结果与步骤2得到的测试集进行误差计算,然后基于误差计算结果调整ZTOC Swin Transformer模型的配置参数,由此经过多次训练,得到误差计算结果符合预期时的ZTOC Swin Transformer模型的配置参数作为最优配置参数;
步骤4、设置ZTOC Swin Transformer模型的配置参数为所述最优配置参数,将待识别桑叶病虫害数据集输入至参数调整为最优配置参数的ZTOC SwinTransformer模型,由ZTOCSwin Transformer模型输出最终的最终的桑叶病虫害预测识别结果;
步骤3中,TOC Swin Transformer模型是以Swin Transformer为基本模型改进而来,通过应用迁移学习、优化的上下文位置偏置嵌入、TOC Swin Transformer模型的块划分,将输入的图像分成n个大小为相同的块,并进行展平操作,得到x={x1,x2,...,xn},其中x表示经过块划分后得到的向量,xi表示第i个窗口,i=1、2、3……n;TOC Swin Transformer模型中第i个自注意力机制的输出zi,query、key、value是由输入xi与自注意力机制中的三个不同的参数矩阵相乘得到。
2.根据权利要求1所述的一种自适应低光照场景下的桑叶病虫害检测方法,其特征在于,步骤2中的预处理依次包括Mosaic数据广增、随机翻转、缩放。
3.根据权利要求2所述的一种自适应低光照场景下的桑叶病虫害检测方法,其特征在于,所述训练集中数据进行预处理时,使用Mosaic数据增强,同时以设定的概率进行随机翻转,并从若干种尺度中随机挑选一种以对训练集中数据进行缩放。
4.根据权利要求1所述的一种自适应低光照场景下的桑叶病虫害检测方法,其特征在于,步骤3中,所述Zero-DCE模型预先使用DARK FACE数据集进行训练,然后再将训练后的Zero-DCE模型添加至TOC Swin Transformer前构成ZTOC Swin Transformer模型,将Zero-DCE模型的输出作为TOC Swin Transformer的输入。
5.根据权利要求1所述的一种自适应低光照场景下的桑叶病虫害检测方法,其特征在于,步骤3中的误差计算包括分类误差计算和回归误差计算。
CN202210456922.8A 2022-04-27 2022-04-27 一种自适应低光照场景下的桑叶病虫害检测方法 Active CN114764827B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210456922.8A CN114764827B (zh) 2022-04-27 2022-04-27 一种自适应低光照场景下的桑叶病虫害检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210456922.8A CN114764827B (zh) 2022-04-27 2022-04-27 一种自适应低光照场景下的桑叶病虫害检测方法

Publications (2)

Publication Number Publication Date
CN114764827A CN114764827A (zh) 2022-07-19
CN114764827B true CN114764827B (zh) 2024-05-07

Family

ID=82364526

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210456922.8A Active CN114764827B (zh) 2022-04-27 2022-04-27 一种自适应低光照场景下的桑叶病虫害检测方法

Country Status (1)

Country Link
CN (1) CN114764827B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115511754B (zh) * 2022-11-22 2023-09-12 北京理工大学 基于改进的Zero-DCE网络的低照度图像增强方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648191A (zh) * 2018-05-17 2018-10-12 吉林大学 基于贝叶斯宽度残差神经网络的害虫图像识别方法
AU2020103613A4 (en) * 2020-11-23 2021-02-04 Agricultural Information and Rural Economic Research Institute of Sichuan Academy of Agricultural Sciences Cnn and transfer learning based disease intelligent identification method and system
WO2021203505A1 (zh) * 2020-04-09 2021-10-14 丰疆智能软件科技(南京)有限公司 害虫检测模型构建方法
CN113627282A (zh) * 2021-07-23 2021-11-09 中南民族大学 一种基于深度迁移学习的茶叶病害识别方法
CN113780357A (zh) * 2021-08-13 2021-12-10 华中农业大学 一种基于迁移学习+MobileNet的玉米叶片病虫害移动端识别方法
CN114219984A (zh) * 2021-12-14 2022-03-22 华南农业大学 一种基于改进YOLOv3的微小病虫害检测系统及其方法
CN114359245A (zh) * 2022-01-10 2022-04-15 上海交通大学宁波人工智能研究院 一种工业场景下产品表面缺陷检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648191A (zh) * 2018-05-17 2018-10-12 吉林大学 基于贝叶斯宽度残差神经网络的害虫图像识别方法
WO2021203505A1 (zh) * 2020-04-09 2021-10-14 丰疆智能软件科技(南京)有限公司 害虫检测模型构建方法
AU2020103613A4 (en) * 2020-11-23 2021-02-04 Agricultural Information and Rural Economic Research Institute of Sichuan Academy of Agricultural Sciences Cnn and transfer learning based disease intelligent identification method and system
CN113627282A (zh) * 2021-07-23 2021-11-09 中南民族大学 一种基于深度迁移学习的茶叶病害识别方法
CN113780357A (zh) * 2021-08-13 2021-12-10 华中农业大学 一种基于迁移学习+MobileNet的玉米叶片病虫害移动端识别方法
CN114219984A (zh) * 2021-12-14 2022-03-22 华南农业大学 一种基于改进YOLOv3的微小病虫害检测系统及其方法
CN114359245A (zh) * 2022-01-10 2022-04-15 上海交通大学宁波人工智能研究院 一种工业场景下产品表面缺陷检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MobileNet算法的嵌入式农业病虫害识别系统;房若民;沈凯文;李浩伟;;单片机与嵌入式系统应用;20200501(第05期);全文 *
一种植物病害图像识别卷积网络架构;吴云志等;安徽农业大学学报;20211231;第48卷(第01期);第150-156页 *
基于深度学习的文本分类方法研究综述;万家山等;天津理工大学学报;20210415;第37卷(第02期);第41-47页 *

Also Published As

Publication number Publication date
CN114764827A (zh) 2022-07-19

Similar Documents

Publication Publication Date Title
CN110555399B (zh) 手指静脉识别方法、装置、计算机设备及可读存储介质
CN111507319A (zh) 一种基于深度融合卷积网络模型的农作物病害识别方法
CN113657294B (zh) 一种基于计算机视觉的作物病虫害检测方法及系统
CN108038517A (zh) 基于改进卷积神经网络模型Cifar10的玉米叶片病害识别方法
CN116524283A (zh) 一种农业虫害图像检测分类方法及系统
CN113470076B (zh) 一种平养鸡舍黄羽鸡多目标跟踪方法
CN114764827B (zh) 一种自适应低光照场景下的桑叶病虫害检测方法
CN111797760A (zh) 基于Retinanet改进的农作物病虫害识别方法
CN115937689B (zh) 一种农业害虫智能识别与监测技术
CN113269182A (zh) 一种基于变体transformer对小区域敏感的目标果实检测方法及系统
CN116311186A (zh) 一种基于改进Transformer模型的植物叶片病变识别方法
CN115115830A (zh) 一种基于改进Transformer的家畜图像实例分割方法
CN114676769A (zh) 一种基于视觉Transformer的小样本昆虫图像识别方法
CN116844041A (zh) 一种基于双向卷积时间自注意力机制的耕地提取方法
CN114863092A (zh) 一种基于知识蒸馏的联邦目标检测方法及系统
CN114913425A (zh) 基于置信学习和细粒度特征提取的玉米病害程度检测方法
CN115658886A (zh) 基于语义文本的智能肝癌分期方法、系统及介质
CN114663777B (zh) 基于时空联合图注意机制的高光谱影像变化检测方法
CN116912712A (zh) 一种结合作物轮作的生长季内作物类型遥感识别方法
CN114519402B (zh) 一种基于神经网络的柑橘病虫害检测方法
CN118015562A (zh) 一种恶劣天气下交通事故监控视频关键帧提取方法及系统
CN116310369A (zh) 一种基于多图像注意力特征融合的农作物虫害最优视角识别方法
CN116704335A (zh) 一种猕猴桃溃疡监测方法、系统、设备及介质
CN117036711A (zh) 一种基于注意力调节的弱监督语义分割方法
CN116524246A (zh) 一种基于深度集成模型的农作物害虫识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant