CN110009702B - 用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法 - Google Patents

用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法 Download PDF

Info

Publication number
CN110009702B
CN110009702B CN201910305842.0A CN201910305842A CN110009702B CN 110009702 B CN110009702 B CN 110009702B CN 201910305842 A CN201910305842 A CN 201910305842A CN 110009702 B CN110009702 B CN 110009702B
Authority
CN
China
Prior art keywords
image
frame
screen
white moth
sliding window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910305842.0A
Other languages
English (en)
Other versions
CN110009702A (zh
Inventor
赵颖
高严
冯德瀛
张来刚
赵栋杰
孙群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Jinglong Environmental Protection Technology Co ltd
Original Assignee
Liaocheng University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaocheng University filed Critical Liaocheng University
Priority to CN201910305842.0A priority Critical patent/CN110009702B/zh
Publication of CN110009702A publication Critical patent/CN110009702A/zh
Application granted granted Critical
Publication of CN110009702B publication Critical patent/CN110009702B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A50/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather
    • Y02A50/30Against vector-borne diseases, e.g. mosquito-borne, fly-borne, tick-borne or waterborne diseases whose impact is exacerbated by climate change

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种智能喷药机器人的美国白蛾幼虫网幕图像定位方法,属于智能喷药机器人的视觉定位领域。该方法包括:步骤1,采集美国白蛾幼虫网幕图片,截取图片中的不同部位作为样本,对所有样本进行分类,并利用样本训练卷积神经网络得到白蛾幼虫网幕识别模型;步骤2,对智能喷药机器人采集到的视频图像进行稳像处理获得稳定的单帧图像,利用不重合滑动窗口遍历每帧图像,得到多个候选框;步骤3,利用所述白蛾幼虫网幕识别模型对各个候选框进行筛选,得到优秀候选框;步骤4,对所有优秀候选框进行融合处理,得到一个连续的目标轮廓框,该目标轮廓框即为白蛾幼虫网幕的位置,智能喷药机器人对该目标轮廓框内进行喷药。本发明能减少药物浪费。

Description

用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法
技术领域
本发明属于智能喷药机器人的视觉定位领域,具体涉及用于智能喷药机器 人的美国白蛾幼虫网幕图像定位方法。
背景技术
美国白蛾,是世界性检疫害虫,对农作物、林木、果树等造成了严重的危 害。1979年6月在一次调查农作物病虫害时,首次在我国发现了美国白蛾它是 从中朝边境传入我国辽宁省丹东地区的。该虫一般一年发生3代,每代分幼虫、 蛹、成虫三个时期。白蛾幼龄幼虫常群集寄主叶片上吐丝结网幕,在网幕内取 食寄主的叶肉,受害叶片呈白膜而枯黄,目前常采用人工摘除网幕和化学药剂 大规模喷施的防治方法,但这些方法简单粗放、污染重、耗费了大量的人力物 力。基于机器视觉的智能精密对靶施药是解决这一问题的方法之一。
美国白蛾生长环境的复杂多变限制了对靶精密喷药的可能,一般定位方法 不能具备较好的鲁棒性和准确性。
发明内容
本发明的目的在于解决上述现有技术中存在的难题,提供一种用于智能喷 药机器人的美国白蛾幼虫网幕图像定位方法,基于卷积神经网络实现美国白蛾 幼虫网幕图像定位,使智能喷药机器人能够做出正确的决策,既减少了喷药量 又可以实现快速喷药,达到良好的灭虫效果。
本发明是通过以下技术方案实现的:
一种用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法,包括:
步骤1,采集美国白蛾幼虫网幕图片,截取图片中的不同部位作为样本,对 所有样本进行分类,并利用样本训练卷积神经网络得到白蛾幼虫网幕识别模型;
步骤2,对智能喷药机器人采集到的视频图像进行稳像处理获得稳定的单帧 图像,利用不重合滑动窗口遍历每帧图像,得到多个候选框;
步骤3,利用所述白蛾幼虫网幕识别模型对各个候选框进行筛选,得到优秀 候选框;
步骤4,对所有优秀候选框进行融合处理,得到一个连续的目标轮廓框,该 目标轮廓框即为白蛾幼虫网幕的位置,智能喷药机器人对该目标轮廓框内进行 喷药。
所述步骤1中的对样本进行分类的操作包括:将所有样本分为三类,分别 为白蛾网幕类、有白蛾网幕类和无白蛾网幕类;其中属于白蛾网幕类的是绝大 部分区域含有白蛾网幕的样本,属于有白蛾网幕类是有小部分区域含有白蛾网 幕的样本,属于无白蛾网幕类的是无白蛾网幕的样本。
所述步骤1中的利用样本训练卷积神经网络得到白蛾幼虫网幕识别模型的 操作包括:
(11)建立卷积神经网络;
(12)将所有样本中的一部分作为测试集,另一部分作为验证集;
(13)利用测试集和验证集对所述卷积神经网络进行训练,得到训练好的 卷积神经网络,即白蛾幼虫网幕识别模型。
所述步骤(11)中建立的卷积神经网络包括输入层、第一卷积层、第二卷 积层、第三卷积层、全局均值池化层、输出层。
所述步骤(13)中的利用测试集和验证集对所述卷积神经网络进行训练的 操作包括:
从输入层输入RGB空间的样本;利用第一卷积层、第二卷积层、第三卷积 层对RGB空间的样本进行特征提取得到RGB空间的特征图;
将样本从RGB空间转到YUV空间,利用第一卷积层、第二卷积层、第三卷 积层对所有YUV空间的样本进行特征提取得到YUV空间的特征图;
将RGB空间的特征图、YUV空间的特征图一起输入到全局均值池化层;
所述全局均值池化层对RGB空间的特征图、YUV空间的特征图求全局均值; 并将全局均值发送给输出层。
所述输出层含有三个神经元,分别对应优秀、合格、不合格;
所述优秀对应白蛾网幕类,所述合格对应有白蛾网幕类,所述不合格对应无 白蛾网幕类。
所述步骤2中的利用不重合滑动窗口遍历每帧图像,得到多个候选框的操 作包括:
(21)依据图像的大小确定滑动窗口的尺寸:每帧图像的宽和高能分别被 滑动窗口的宽w和高h整除;设置滑动窗口的面积最小值Sn
(22)以图像的左上角为坐标原点,以图像的右侧作为x轴正方向,以图 像的下侧作为y轴正方向建立图像坐标系;将图像的坐标原点作为滑动窗口起 始点,将滑动窗口的宽作为滑动窗口x轴方向的步长,将滑动窗口的高作为图 像y轴的步长;
(23)将滑动窗口按照从左到右、从上到下的顺序进行滑动;滑动窗口的 尺寸和移动到的位置即为候选框的尺寸和位置,这样得到多个候选框。
所述步骤3的操作包括:
(31)利用白蛾幼虫网幕识别模型对各个候选框进行分类:如果白蛾幼虫 网幕识别模型的输出是优秀,则输入的候选框为优秀候选框;如果白蛾幼虫网 幕识别模型的输出是合格,则输入的候选框为合格候选框;如果白蛾幼虫网幕 识别模型的输出是不合格,则输入的候选框为不合格候选框;
(32)将所有优秀候选框保留,将所有不合格候选框舍弃;然后将滑动窗 口的宽和高分别缩小为原来的二分之一,如果不存在合格候选框或者缩小后的 滑动窗口的面积小于Sn,则进入步骤(33),否则返回步骤(22);
(33)结束。
所述步骤4中的对所有优秀候选框进行融合处理,得到一个连续的目标轮 廓框的操作包括:
(41)在一个与原图像大小相同的黑色二值图像上,在对应每个优秀候选 框的位置处绘制出白色实心候选框,得到二值图像;每个白色实心候选框的尺 寸和与其对应的优秀候选框的尺寸相同;
(42)在所述二值图像中提取目标轮廓框,在原图像上对应的位置处绘制 出所述目标轮廓框并高亮显示。
与现有技术相比,本发明的有益效果是:本发明对各种不同的复杂环境具 有较好的适应性,抗干扰能力强,能够准确地定位美国白蛾幼虫网幕位置,使 智能喷药机器人快速正确决策,极大地减少药物浪费。另外,该定位方法由机 器自主学习,不需要调试太多参数。根据选择性搜索和多尺度滑动窗口原理, 提出基于不重合滑动窗口的美国白蛾幼虫网幕图像定位方法,该方法不再依据图像分割结果来获取候选框,而是通过不断均分图像来获取候选框,一步步缩 小检测范围,最终定位出白蛾幼虫网幕的正确位置。
附图说明
图1为白蛾幼虫生长环境图;
图2为卷积神经网络(CNN)原理示意图;
图3为不重合滑动窗口工作原理示意图;
图4为机器人视觉系统流程示意图;
图5(a)实际图片处理流程的第一次提取候选框示意图;
图5(b)实际图片处理流程的第二次提取候选框示意图;
图5(c)实际图片处理流程的第三次提取候选框示意图;
图5(d)实际图片处理流程的第四次提取候选框示意图;
图5(e)实际图片处理流程的第五次提取候选框示意图;
具体实施方式
下面结合附图对本发明作进一步详细描述:
本发明基于卷积神经网络的美国白蛾幼虫网幕图像定位方法,包括如下步 骤:
步骤1,在各种不同的环境下采集美国白蛾幼虫网幕图片。截取图片中的不 同部位作为样本,并将样本分为白蛾网幕、有白蛾网幕和无白蛾网幕三类。属 于第一类白蛾网幕的图片其绝大部分区域含有白蛾网幕,属于第二类有白蛾网 幕的图片其小部分区域含有白蛾网幕,属于第三类无白蛾网幕的图片中无白蛾网幕。实际使用时,也可以根据需要对图片样本进行其它分类,例如分为两类 或者分为三类以上。依据所分的样本类别建立测试集和验证集。搭建卷积神经 网络(CNN)模型,利用所建立的数据集训练CNN模型。
所述搭建CNN模型,利用所建立的数据集训练CNN模型包括如下步骤:
1)如图2所示(图2中的RGB和YUV是两种不同的颜色空间,本发明方法 的主要思想是不同的颜色空间有不同的优点,多种颜色空间混合使用可弥补单 一颜色空间的不足。综合考虑不同颜色空间搭配的效果和数据量选择RGB和YUV 颜色空间),确定深度神经网络整体架构:
Conv1层(第一卷积层)。Conv1层是一个分组卷积层,卷积前将图像从RGB 空间转到YUV空间,分别在RGB和YUV空间内进行卷积。
采用3×3大小的卷积核和补零策略,步长为1,单个颜色空间卷积得到9 个32×32的特征图。卷积核的大小决定一个神经元感受视野的大小,卷积核过 小时,无法提取有效的局部特征;卷积核过大时,提取特征的复杂度可能远远 超过其表示能力。因此,设置恰当的卷积核对于提高CNN的性能至关重要,不同的卷积核能够提取不同的特征。补零策略能够避免忽略边界信息,获得更完 整的图像特征信息。因采用补零策略的原因,特征图的大小只与图像的大小和 卷积核的步长有关。
在实际操作中,卷积的时候还要加上一个偏置项。对于与卷积核尺寸相同的 图像块x,采用卷积核w进行卷积,偏置项为b,输出为y的卷积运算为:
y=wx+b
卷积得到的结果并不是直接存储在Conv1层中,而是先用激活函数Relu和 IRelu进行计算(对y值进行计算更新y值,共激活两次,一次relu,一次Irelu), 再作为特征图中的特征值。Relu和IRelu结合使用在保证网络收敛速度的同时, 避免了忽略负的特征值,减少了图像特征信息的丢失。
Relu的表达式为:
IRelu的表达式为:
对卷积得到的特征图采用2×2的池化窗口进行最大池化以减少数据量,池 化窗口的步长为2。图2中的Conv1(第一卷积层)、Conv2(第二卷积层)、Conv3 (第三卷积层)都是卷积层,卷积层的作用是提取图像特征。
总的来说,该层的作用是提取原图像的不同特征,输出9×2×2=36(单个颜 色空间卷积得到9个特征图,两个颜色空间分别卷积需乘以2,两种激活函数单 独使用需在乘以2)个16×16大小的特征图。
该层的训练参数数量:2×(3×3×3×9+9)=504
随着网络不断加深,卷积核的数量以2的指数倍增加,卷积核提取的特征更 加完整,也更具表达能力。
Global average pool层(全局均值池化层)。全局均值池化层用来代替与最后 一层卷积层相连的全连接层,对最后一层卷积层得到的每个特征图求全局均值, 有多少个特征图便可得到多少个神经元。RGB和YUV空间的特征图加起来是72 张特征图,对每个特征图分别求均值,得到72个神经元。
OUTPUT层(输出层)。OUTPUT层是全连接层,含有三个神经元(分别对 应优秀、合格、不合格),采用激活函数Softmax,输出原图像所属类别的概率Si。 假设有一个数组V,V中共有n个元素,Vi表示V中的第i个元素,那么这个 元素的Softmax值为:
2)数据预处理:使用多线程加载数据,训练前将图片缩放到指定大小并进 行标准化处理(标准化是一种数据处理方式,具体做法是减去均值再除以方差),打乱次序分批次加载数据。
3)网络的训练:每次训练完一次后,将预测值与正确值相比较,求取误差 Loss。在网络中反向传播Loss。逐层求导,更新权重。迭代多次训练,不断减 小Loss,网络训练时参数是不断变化的,保存下来的模型中的参数是固定的, 最后得到的就是训练好的神经网络,即白蛾幼虫网幕识别模型。
步骤2,对视频图像进行稳像处理以便获得稳定的单帧图像,利用不重合滑 动窗口遍历每帧图像提取候选框。
所述步骤2中的利用不重合滑动窗口遍历每帧图像提取候选框包括如下步 骤:
1)依据图片大小选择一个合适的尺寸(该尺寸能够把图像均分为若干图像 块,如果目标比较大或者比较集中,图像块也比较大)使原图像的宽和高能分 别被滑动窗口的宽(w)和高(h)整除。
2)以图像的左上角为坐标原点,以图像的右侧作为x轴正方向,以图像的 下侧作为y轴正方向建立图像坐标系。将图像的坐标原点作为滑动窗口起始点, 将w作为滑动窗口x轴方向的步长,将h作为图像y轴的步长。
3)滑动窗口按照从左到右、从上到下的原则滑动(即从左到右滑动完第一 行后,再下移到第二行,继续从左到右滑动,以此类推)。滑动窗口的尺寸和位 置即为候选框的尺寸和位置。
步骤3,根据候选框截取图像局部并使用所述白蛾幼虫网幕识别模型对候选 框进行分类以达到筛选候选框的目的。候选框是一个已知大小和位置的矩形框。 (x,y,w,h)四个参数可确定矩形框。(x,y)是坐标,w是宽,h是高。
所述步骤3中的根据候选框截取图像局部并使用白蛾幼虫网幕识别模型对 候选框进行分类以达到筛选候选框的目的包括如下步骤:
1)利用白蛾幼虫网幕识别模型将候选框分为优秀候选框、合格候选框和不 合格候选框三个类别。优秀候选框指其候选区域属于白蛾网幕类,合格候选框 指其候选区域属于有白蛾网幕类,不合格候选框指其候选区域属于无白蛾网幕 类。
2)优秀候选框保留,不合格候选框舍弃。然后将滑动窗口的宽和高缩小为 原来的二分之一,利用不重合滑动窗口遍历合格候选框中的区域作为新的候选 框,然后返回步骤1)。
3)设置一个滑动窗口的面积最小值Sn
当不存在合格候选框或新生成的滑动窗口的面积S<Sn时,筛选候选框的过 程结束。
步骤4,对所有达到要求的候选框(即保留下来的优秀候选框)进行融合处 理,得到一个连续的目标轮廓框以确定白蛾幼虫网幕的位置。
所述步骤4中的对所有达到要求的候选框进行融合处理,得到一个连续的 目标轮廓框以确定白蛾幼虫网幕的位置的操作包括:
1)在一个与原图像大小相同的黑色二值图像上绘制所有达到要求的白色实 心候选框。
2)根据步骤1)绘制的二值图像提取目标轮廓框(采用现有方法提取轮廓 即可,例如可以采用opencv中的findContours来提取外轮廓。),在原图像上 相同位置处绘制出目标轮廓框并高亮显示。
利用本发明方法进行美国白蛾幼虫网幕图像定位的一个实施例如下:
参见图1所示的白蛾幼虫生长环境图(图1中的4幅图表示不同环境下的 白蛾幼虫),美国白蛾幼虫的杂乱分布及其生长复杂,给图像定位造成了极大的 困难,为提高智能喷药机器人视觉系统的效率和准确性,需要做一些准备工作:
1)在各种不同的白蛾幼虫生长环境下采集图片样本并将其分为白蛾网幕、 有白蛾网幕和无白蛾网幕三类,初步按照7:3的比例建立测试集和验证集。
2)参见图2所示的卷积神经网络(CNN)原理示意图,搭建一个用于识别 白蛾幼虫网幕卷积神经网络,包括:Iuput层、conv1层、conv2层、conv3层、 global average pool层、Output层,将数据集投入网络中进行训练,优化网络参 数并优化数据集以提高识别的准确率。
3)将已训练好的网络生成网络模型以保存训练好的网络参数。
参见图3不重合滑动窗口原理示意图,为了能够快速定位出白蛾幼虫网幕 的位置,提出不重合滑动窗口法提取候选框,具体步骤如下:
1)依据原图像1的大小(960×720)选择一个合适的尺寸,确定滑动窗口2 的宽(w=320)和高(h=240)(初始滑动窗口手动设置,后续窗口每次变化宽 和高缩小为之前窗口的二分之一)。
2)以图像的左上角为坐标原点,以图像的右侧作为x轴正方向,以图像的 下侧作为y轴正方向建立图像坐标系。将图像的坐标原点作为滑动窗口起始点, 将w作为滑动窗口x轴方向的步长,将h作为图像y轴的步长。
3)滑动窗口按照从左到右、从上到下的原则滑动对整张图像进行扫描,即 将原图片进行均分,得到均分后的图片3。图片3的大小和位置坐标为候选框的大小和位置坐标。
参见图4所示的本发明方法的步骤框图,利用训练好的网络模型进行实时 图像识别。具体步骤如下:
1)对视频图像进行稳像处理以便获得稳定的单帧图像,利用不重合滑动窗 口提取候选框并用网络模型将其分类,优秀候选框保留,不合格候选框舍弃。 若不存在合格候选框,进入步骤4),若存在合格候选框进入候选框,进入步骤 2)。
2)对滑动窗口的面积进行判断,若滑动窗口的面积低于最小值,则对优秀 候选框进行融合处理,绘制目标轮廓框,结束定位工作,若滑动窗口的面积高 于最小值,则利用不重合滑动窗口对合格候选框所包含的图像部分提取候选框。
3)利用网络模型对候选框进行分类,优秀候选框保留,不合格候选框舍弃。 若存在合格候选框,返回步骤2)。
4)对所有达到要求的候选框进行融合处理,得到一个连续的目标轮廓框以 确定白蛾幼虫网幕的位置。
参见图5(a)到图5(e)的实际图片处理流程示意图,分别展现了两幅不 同的图片候选框筛选过程,可以看出优秀候选框逐步增多。根据网络模型识别 结果筛选候选框并进行融合处理。具体步骤如下:
1)参见图5(a)滑动窗口初次扫描整个图像,生成九个大小相同的候选框, 用网络模型对候选框进行评分,优秀候选框保留。
2)参见图5(b)、(c)和(d)滑动窗口的宽和高缩小为之前的二分之一, 利用不重合滑动窗口对合格候选框所包含的部分图像提取候选框,优秀候选框 保留。
3)多次重复步骤2),直到滑动窗口的面积低于1200或不存在合格候选框 为止。
4)在黑色二值图像上绘制合适实心的合格候选框:根据所绘制的二值图像 提取目标轮廓并在原图像绘出目标轮廓框,如图5(e)所示。
上述技术方案只是本发明的一种实施方式,对于本领域内的技术人员而言, 在本发明公开了应用方法和原理的基础上,很容易做出各种类型的改进或变形, 而不仅限于本发明上述具体实施方式所描述的方法,因此前面描述的方式只是 优选的,而并不具有限制性的意义。

Claims (5)

1.一种用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法,其特征在于:所述方法包括:
步骤1,采集美国白蛾幼虫网幕图片,截取图片中的不同部位作为样本,对所有样本进行分类,并利用样本训练卷积神经网络得到白蛾幼虫网幕识别模型;
步骤2,对智能喷药机器人采集到的视频图像进行稳像处理获得稳定的单帧图像,利用不重合滑动窗口遍历每帧图像,得到多个候选框;
步骤3,利用所述白蛾幼虫网幕识别模型对各个候选框进行筛选,得到优秀候选框;
步骤4,对所有优秀候选框进行融合处理,得到一个连续的目标轮廓框,该目标轮廓框即为白蛾幼虫网幕的位置,智能喷药机器人对该目标轮廓框内进行喷药;
所述步骤1中的对样本进行分类的操作包括:将所有样本分为三类,分别为白蛾网幕类、有白蛾网幕类和无白蛾网幕类;其中属于白蛾网幕类的是绝大部分区域含有白蛾网幕的样本,属于有白蛾网幕类是有小部分区域含有白蛾网幕的样本,属于无白蛾网幕类的是无白蛾网幕的样本;
所述步骤1中的利用样本训练卷积神经网络得到白蛾幼虫网幕识别模型的操作包括:
(11)建立卷积神经网络;
(12)将所有样本中的一部分作为测试集,另一部分作为验证集;
(13)利用测试集和验证集对所述卷积神经网络进行训练,得到训练好的卷积神经网络,即白蛾幼虫网幕识别模型;
所述步骤(11)中建立的卷积神经网络包括输入层、第一卷积层、第二卷积层、第三卷积层、全局均值池化层、输出层;
所述步骤(13)中的利用测试集和验证集对所述卷积神经网络进行训练的操作包括:
从输入层输入RGB空间的样本;利用第一卷积层、第二卷积层、第三卷积层对RGB空间的样本进行特征提取得到RGB空间的特征图;
将样本从RGB空间转到YUV空间,利用第一卷积层、第二卷积层、第三卷积层对所有YUV空间的样本进行特征提取得到YUV空间的特征图;
将RGB空间的特征图、YUV空间的特征图一起输入到全局均值池化层;
所述全局均值池化层对RGB空间的特征图、YUV空间的特征图求全局均值;并将全局均值发送给输出层。
2.根据权利要求1所述的用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法,其特征在于:所述输出层含有三个神经元,分别对应优秀、合格、不合格;
所述优秀对应白蛾网幕类,所述合格对应有白蛾网幕类,所述不合格对应无白蛾网幕类。
3.根据权利要求1所述的用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法,其特征在于:所述步骤2中的利用不重合滑动窗口遍历每帧图像,得到多个候选框的操作包括:
(21)依据图像的大小确定滑动窗口的尺寸:每帧图像的宽和高能分别被滑动窗口的宽w和高h整除;设置滑动窗口的面积最小值S n
(22)以图像的左上角为坐标原点,以图像的右侧作为x轴正方向,以图像的下侧作为y轴正方向建立图像坐标系;将图像的坐标原点作为滑动窗口起始点,将滑动窗口的宽作为滑动窗口x轴方向的步长,将滑动窗口的高作为图像y轴的步长;
(23)将滑动窗口按照从左到右、从上到下的顺序进行滑动;滑动窗口的尺寸和移动到的位置即为候选框的尺寸和位置,这样得到多个候选框。
4.根据权利要求1所述的用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法,其特征在于:所述步骤3的操作包括:
(31)利用白蛾幼虫网幕识别模型对各个候选框进行分类:如果白蛾幼虫网幕识别模型的输出是优秀,则输入的候选框为优秀候选框;如果白蛾幼虫网幕识别模型的输出是合格,则输入的候选框为合格候选框;如果白蛾幼虫网幕识别模型的输出是不合格,则输入的候选框为不合格候选框;
(32)将所有优秀候选框保留,将所有不合格候选框舍弃;然后将滑动窗口的宽和高分别缩小为原来的二分之一,如果不存在合格候选框或者缩小后的滑动窗口的面积小于S n ,则进入步骤(33),否则返回步骤(22);
(33)结束。
5.根据权利要求1所述的用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法,其特征在于:所述步骤4中的对所有优秀候选框进行融合处理,得到一个连续的目标轮廓框的操作包括:
(41)在一个与原图像大小相同的黑色二值图像上,在对应每个优秀候选框的位置处绘制出白色实心候选框,得到二值图像;每个白色实心候选框的尺寸和与其对应的优秀候选框的尺寸相同;
(42)在所述二值图像中提取目标轮廓框,在原图像上对应的位置处绘制出所述目标轮廓框并高亮显示。
CN201910305842.0A 2019-04-16 2019-04-16 用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法 Active CN110009702B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910305842.0A CN110009702B (zh) 2019-04-16 2019-04-16 用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910305842.0A CN110009702B (zh) 2019-04-16 2019-04-16 用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法

Publications (2)

Publication Number Publication Date
CN110009702A CN110009702A (zh) 2019-07-12
CN110009702B true CN110009702B (zh) 2023-08-04

Family

ID=67172365

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910305842.0A Active CN110009702B (zh) 2019-04-16 2019-04-16 用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法

Country Status (1)

Country Link
CN (1) CN110009702B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226709A (zh) * 2013-04-24 2013-07-31 聊城大学 一种美国白蛾幼虫网幕图像识别方法
CN106504233A (zh) * 2016-10-18 2017-03-15 国网山东省电力公司电力科学研究院 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及系统
CN106991408A (zh) * 2017-04-14 2017-07-28 电子科技大学 一种候选框生成网络的生成方法及人脸检测方法
CN107016405A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 一种基于分级预测卷积神经网络的害虫图像分类方法
CN107122826A (zh) * 2017-05-08 2017-09-01 京东方科技集团股份有限公司 用于卷积神经网络的处理方法和系统、和存储介质
CN108734277A (zh) * 2018-05-18 2018-11-02 拓普暨达(广州)基因精准医疗科技有限公司 一种基于卷积神经网络的靶向药物喷洒方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226709A (zh) * 2013-04-24 2013-07-31 聊城大学 一种美国白蛾幼虫网幕图像识别方法
CN106504233A (zh) * 2016-10-18 2017-03-15 国网山东省电力公司电力科学研究院 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及系统
CN107016405A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 一种基于分级预测卷积神经网络的害虫图像分类方法
CN106991408A (zh) * 2017-04-14 2017-07-28 电子科技大学 一种候选框生成网络的生成方法及人脸检测方法
CN107122826A (zh) * 2017-05-08 2017-09-01 京东方科技集团股份有限公司 用于卷积神经网络的处理方法和系统、和存储介质
CN108734277A (zh) * 2018-05-18 2018-11-02 拓普暨达(广州)基因精准医疗科技有限公司 一种基于卷积神经网络的靶向药物喷洒方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于DRGB的运动中肉牛形体部位识别;邓寒冰;许童羽;周云成;苗腾;张聿博;徐静;金莉;陈春玲;;农业工程学报(第05期);全文 *

Also Published As

Publication number Publication date
CN110009702A (zh) 2019-07-12

Similar Documents

Publication Publication Date Title
US20220327815A1 (en) System and method for identification of plant species
dos Santos Ferreira et al. Weed detection in soybean crops using ConvNets
Lippi et al. A yolo-based pest detection system for precision agriculture
CN110222215B (zh) 一种基于f-ssd-iv3的作物害虫检测方法
CN109344699A (zh) 基于分层深度卷积神经网络的冬枣病害识别方法
CN112990103B (zh) 一种基于机器视觉的串采二次定位方法
CN115104133A (zh) 通过使用由半监督方法获得的训练图像的卷积神经网络估计叶子上的生物对象的数量来量化植物侵染
Wang et al. Tea picking point detection and location based on Mask-RCNN
Dimililer et al. ICSPI: intelligent classification system of pest insects based on image processing and neural arbitration
CN111105393A (zh) 一种基于深度学习的葡萄病虫害识别方法及装置
CN108734277A (zh) 一种基于卷积神经网络的靶向药物喷洒方法
CN111340019A (zh) 基于Faster R-CNN的粮仓害虫检测方法
CN112861718A (zh) 一种轻量级特征融合人群计数方法及系统
CN113609941A (zh) 一种基于深度学习的农作物病虫害识别方法
Rahim et al. Deep learning-based accurate grapevine inflorescence and flower quantification in unstructured vineyard images acquired using a mobile sensing platform
Tian et al. An image processing method for green apple lesion detection in natural environment based on GA-BPNN and SVM
CN110363103A (zh) 虫害识别方法、装置、计算机设备及存储介质
CN114022656A (zh) 一种智能风吸式led特征光谱害虫诱杀系统及方法
CN110009702B (zh) 用于智能喷药机器人的美国白蛾幼虫网幕图像定位方法
Pareek et al. Clustering based segmentation with 1D-CNN model for grape fruit disease detection
Liu et al. “Is this blueberry ripe?”: a blueberry ripeness detection algorithm for use on picking robots
Vora et al. An ensemble of convolutional neural networks to detect foliar diseases in apple plants
Huang et al. Termite pest identification method based on deep convolution neural networks
Tangtisanon et al. Holy basil curl leaf disease classification using edge detection and machine learning
Farahani et al. Identification of grape leaf diseases using proposed enhanced VGG16

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240516

Address after: 230000 Woye Garden Commercial Building B-1017, 81 Ganquan Road, Shushan District, Hefei City, Anhui Province

Patentee after: HEFEI JINGLONG ENVIRONMENTAL PROTECTION TECHNOLOGY Co.,Ltd.

Country or region after: China

Address before: Liaocheng University, No.1, Hunan Road, Liaocheng City, Shandong Province

Patentee before: LIAOCHENG University

Country or region before: China