CN111079546A - 一种无人机害虫检测方法 - Google Patents

一种无人机害虫检测方法 Download PDF

Info

Publication number
CN111079546A
CN111079546A CN201911156649.1A CN201911156649A CN111079546A CN 111079546 A CN111079546 A CN 111079546A CN 201911156649 A CN201911156649 A CN 201911156649A CN 111079546 A CN111079546 A CN 111079546A
Authority
CN
China
Prior art keywords
current frame
frame image
output data
target
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911156649.1A
Other languages
English (en)
Other versions
CN111079546B (zh
Inventor
李旭东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Normal University
Original Assignee
Chongqing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Normal University filed Critical Chongqing Normal University
Priority to CN201911156649.1A priority Critical patent/CN111079546B/zh
Publication of CN111079546A publication Critical patent/CN111079546A/zh
Application granted granted Critical
Publication of CN111079546B publication Critical patent/CN111079546B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种无人机害虫检测方法,属于农用无人机领域,所述方法包括:基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域;对所述复合当前帧图像进行至少三次池化处理后,获得第五输出数据;对所述第五输出数据进行至少两次卷积处理后,获得第六输出数据;对所述第六输出数据进行一池化处理和一次卷积处理后,获得第七输出数据;将所述第六输出数据和所述第七输出数据进行融合,获得第八输出数据;对所述第八输出数据进行至少两次池化处理和至少两次卷积处理后,获得第九输出数据;对所述第九输出数据进行分类,获得所述复合目标区域;若当前帧目标区域和所述复合目标区域的距离小于设定阈值,获得是害虫所在区域。

Description

一种无人机害虫检测方法
技术领域
本发明涉及无人机害虫检测领域。
背景技术
无人驾驶飞机简称“无人机”,是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机。机上无驾驶舱,但安装有自动驾驶仪、程序控制装置等设备。地面、舰艇上或母机遥控站人员通过雷达等设备,对其进行跟踪、定位、遥控、遥测和数字传输。可在无线电遥控下像普通飞机一样起飞或用助推火箭发射升空,也可由母机带到空中投放飞行。回收时,可用与普通飞机着陆过程一样的方式自动着陆,也可通过遥控用降落伞或拦网回收。可反复使用多次。广泛用于空中侦察、监视、通信、反潜、电子干扰等。
有一些无人机现在用在农业领域,如无人机喷洒农药、无人机播种等,但是无人机根据害虫的位置和密度进行精准喷洒是一个需要解决的问题,现有的多是经过人工观察害虫情况。
发明内容
本发明的目的在于:公开了一种害虫检测方法,所述方法包括:
获得待检测区域的视频,所述待检测区域包括害虫,所述待检测区域的视频包括多帧图像,所述图像中包含害虫的图像信息;
基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域;
获得所述残差区域中的像素点(i,j)的像素值与所述当前帧图像中的像素点(i,j+k)的像素值之和,其中,所述i,j是正整数,所述k是大于或等于0的整数;
若所述和大于255,确定第一差值为融合当前帧图像的像素点(i,j)的像素值,所述第一差值为255与所述和与255的商的余数之差值;若所述和小于或者等于255,确定所述和融合当前帧图像的像素点(i,j)的像素值;
对所述融合当前帧图像进行滤波,获得高频当前帧图像和获得低频当前帧图像;
若所述高频当前帧图像中像素点(i,j)的像素值与所述低频当前帧图像中像素点(i,j)的像素值相等,且所述像素点的像素值为第一取值,则赋值第二取值给所述复合当前帧图像的像素点(i,j)的像素值;
若所述高频当前帧图像中像素点(i,j)的像素值与低频当前帧图像中像素点(i,j)的像素值相同,且像素点的像素值不为第一取值,则对复合当前帧图像的像素点(i,j)进行扩展,以使像素点(i,j)包括一个融合通道;对融合通道进行赋值,以使融合通道的取值为第二取值,第二取值与所述像素点的像素值和第一取值不同;
基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域;对所述复合当前帧图像进行至少三次池化处理后,获得第五输出数据;
对所述第五输出数据进行至少两次卷积处理后,获得第六输出数据;
对所述第六输出数据进行一池化处理和一次卷积处理后,获得第七输出数据;
将所述第六输出数据和所述第七输出数据进行融合,获得第八输出数据;
对所述第八输出数据进行至少两次池化处理和至少两次卷积处理后,获得第九输出数据;
对所述第九输出数据进行分类,获得所述复合目标区域;
获得所述当前帧目标区域和所述复合目标区域的距离;
若所述距离小于设定阈值,基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标,所述待检测的目标就是害虫。
可选的,在所述对所述融合当前帧图像进行滤波,获得高频当前帧图像和获得低频当前帧图像之后,在所述基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域之前,所述方法包括:
获得所述高频当前帧图像中像素点(I,j)的像素值与所述低频当前帧图像中像素点(I,j)的平均值;
确定所述平均值作为所述符合当前帧图像的像素点(I,j)的像素值。
可选的,所述基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域,包括:
对所述当前帧图像进行至少一次卷积处理后,获得第一输出数据;
对所述第一输出数据进行两次池化处理后,获得第二输出数据;
对所述第二输出数据进行至少两次卷积处理后,获得第三输出数据;
对所述第三输出数据进行至少三次池化处理后,获得第四输出数据;
对所述第四输出数据进行分类,获得所述当前目标区域。
可选的,所述获得所述当前帧目标区域和所述复合目标区域的距离,包括:
获得所述当前帧目标区域和所述复合目标区域的外接圆;
获得所述当前帧目标区域的外接圆的圆心和所述复合目标区域的外接圆的圆心之间欧氏距离;
确定所述欧氏距离作为所述当前帧目标区域和所述复合目标区域的距离。
可选的,所述获得所述当前帧目标区域和所述复合目标区域的距离,包括:
分别获得所述当前帧目标区域和所述复合目标区域的重心;
获得所述当前帧目标区域的重心和所述复合目标区域的重心之间欧氏距离;
确定所述欧氏距离作为所述当前帧目标区域和所述复合目标区域的距离。
可选的,所述基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标,包括:
获得所述当前帧目标区域和所述复合目标区域的交叉区域;
确定所述交叉区域为所述待检测的目标。
可选的,在所述确定所述交叉区域为所述待检测的目标之前,所述方法还包括:
对所述交叉区域进行渲染。
可选的,在所述对所述交叉区域进行渲染之前,所述方法还包括:
对所述交叉区域进行膨胀处理,以使所述交叉区域的尺寸接近所述待测目标的尺寸。
在一个优选的实施例当中,在所述对所述交叉区域进行渲染之前,所述方法还包括:
对所述交叉区域进行膨胀处理,以使所述交叉区域的尺寸接近所述待测目标的尺寸。
通过采用以上方案,通过基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域,将残差区域与当前帧图像进行融合,获得融合当前帧图像,增强了当前帧图像的特征信息。通过对融合当前帧图像进行高通滤波,获得高频当前帧图像,高频当前帧图像保留了当前帧图像的高频特征信息,对融合当前帧图像进行低通滤波,获得低频当前帧图像,低频当前帧图像保留了当前帧图像的低频特征信息,将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像,增强了复合当前帧图像中的特征信息,同时提高了特征信息的保真性。基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域;基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域,进一步提高了目标在符合目标区域中的概率,提高了目标检测的准确性。获得当前帧目标区域和复合目标区域的距离,若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标,结合了传统神经网络的目标检测的结果,加上准确性高的第二神经网络的目标检测结果,提高了目标检测的准确性,提高了待检测的目标的精度。
附图说明
图1是本发明的整体结构示意图;
图2是另一侧观察的示意图;
图3是药箱的截面图;
图4是药箱另一种状态的截面图;
图5是弹性杆组件的截面图
图中标记:1-机体,2-螺旋桨,3-药箱,31-滚轮,32-喷口管,33-固定片,4-固定架,41-轨道,42-固定板,43-弹性杆组件,431-第一弹性杆,432-第二弹性杆,433-凹部,434-连接杆,435-紧固件,436-弹簧,437-第三弹性杆,44-活塞,45-电机,46-螺杆,5-限位块。
具体实施方式
实施例1:
下面结合附图,对本发明作详细的说明。
本实施例公开了一种农药喷洒无人机,包括机体1、与机体1连接的螺旋桨2,所述的机体上设有控制装置等控制无人机运转,螺旋桨2旋转以给无人机提供飞行动力。现有的无人机的机体上连接有药箱,药箱内设有药液,药箱底部设有喷口,药液由于重力或者泵的作用在喷口中喷出,在重力的作用下,药液容易晃动,并且随着药液的消耗,喷洒的越来越稀,前后喷洒的不均匀,如果使用泵,一方面使得无人机的重量更大,消耗更多的电,同时,泵在喷洒的时候容易堵住。
而本发明的机体上连接有药箱3,药箱为圆柱体,如图1和图2所示,圆柱体沿着圆柱体的中心轴水平固定在机体上,如图3和图4所示,药箱包括有储放药液的储液腔30,储液腔连通有喷口管32,如图3喷口管设有与储液腔连接的水平段以及向下喷液的竖直段,水平段和储液腔连通,竖直段进行喷液,竖直段设有一些可以喷液的部件,其为现有的技术,不再赘述。
如图3所示,药箱的两侧设有滚轮31,药箱的侧面设有固定片33,固定片中间设有通道,通道侧壁上设有内螺纹,在更一步的优选方案中,药箱上连接有两个固定片,固定片从药箱外侧面凸出,固定片相对于药箱的中心轴对称分布,当然也可以设有一个固定片,两个固定片使得药箱的受力更加的均匀。
本发明的机体上还连接有固定架4,固定架包括有固定板42,固定板固定连接有弹性杆组件43,弹性杆组件部分伸入药箱中,弹性杆组件的末端设有活塞44,活塞与药箱侧壁形成储液腔30,固定板上设有电机45,电机连接有螺杆46,螺杆被电机驱动转动,螺杆46和固定片的的通道螺纹连接,固定架上设有轨道41,滚轮能够沿着轨道水平移动;
所述的弹性杆组件包括有与固定板连接的第一弹性杆431、与活塞连接的第三弹性杆437、位于第一弹性杆和第三弹性杆之间的第二弹性杆,第二弹性杆设有凹部433,第一弹性杆设有伸入到第二弹性杆凹部中的连接杆434,连接杆上设有紧固件435,第二弹性杆和第一弹性杆之间设有弹簧436,紧固件紧固在连接杆上以使得弹簧处于压缩状态,当第一弹性杆对第二弹性杆的挤压力小于弹性预载的压缩力时,第一弹性杆和第二弹性杆固定,当第一弹性杆对第二弹性杆的挤压力大于弹性预载的压缩力时,第一弹性杆远离第二弹性杆使得弹性杆组件足有弹性;
所述的活塞上设有感应储液腔压强的压强传感器,压强传感器连接有控制器,控制器连接有电机,并可以控制电机,当压强传感器感应到的储液腔压腔较小的时候,控制器控制电机,电机驱动螺杆46转动,螺杆转动通过控制固定片以驱动药箱靠近固定板移动,以使得活塞挤压药液,以增大药液的压强,使得药液的压强保持在稳定水平,进一步使得喷洒更加的均匀。
所述的轨道设有上轨道和下轨道,所述的滚轮位于上轨道和下轨道之间。所述的弹性杆组件上套设有限位块5,限位块和药箱固定连接,当药箱靠近固定板达到极限时,限位块能够限制药箱继续向固定板移动。
两个固定片对应的连接有两个螺杆,两个螺杆对应的连接有两个电机。所述的固定架底部设有停靠杆,所述的停靠杆在无人机停靠的时候和地面接触。所述的机体均匀的连接有四个螺旋桨2。所述的药箱设有加液口34,所述的加液口能够向药箱加入药液并且能够封闭。
实施例2:本实施例公开了一种害虫检测方法,本发明所述的无人机在进行喷洒农药的时候根据该害虫检测方法确定害虫分布情况,无人机包括害虫检测系统,该害虫检测系统实现其功能时执行如下述方法:
获得待检测区域的视频,所述的视频通过无机人上按照的摄像头获取;
基于害虫视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域;
将所述残差区域与所述当前帧图像进行融合,获得融合当前帧图像;
对所述融合当前帧图像进行高通滤波,获得高频当前帧图像;
对所述融合当前帧图像进行低通滤波,获得低频当前帧图像;
将所述高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像;
基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域;
基于第二卷积神经网络对所述复合当前帧图像进行目标检测,获得复合目标区域;
获得所述当前帧目标区域和所述复合目标区域的距离;
若所述距离小于设定阈值,基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标。
待测的目标及是害虫所在区域,本发明所述的无人机在进行喷洒农药的时候根据该害虫检测方法确定害虫分布情况,对害虫所在区域进行农药喷洒。
其中,基于害虫视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域的步骤具体为:获得前一帧图像的前像素点以及后一帧图像中与前像素点位置相对应的一后像素点。基于与前像素点对应的前区块和后区块,通过绝对差值和运算获得前像素点和后像素点之间的第一差值信息。前区块是前一帧图像中的一个区块,后区块是后一帧图像中的区域。前区块包括多个像素点。当像素点对应的前区块是,以前像素点为中心,设定大小的一个矩形区块,例如当前区块是2x2的区块的矩形区块。若前像素点的位置处在当前帧图像的边缘,则前区块包括以当前像素点为中心,获得与该像素点相邻的多个像素点,这些像素点构成的确定的一个区块就是当前区块。例如,前像素点是(0,0),则前区块是由(0,0)、(0,1)、(1,0)和(1,1)构成的区块。针对前区块中的每个像素点,获得每个像素点的取值与后区块中与每个像素点位置相对应的像素点的取值的差值;对差值的绝对值进行求和运算,获得第一差值信息,多个前像素点对应多个第一差值信息,多个第一差值信息按照与前像素点的对应关系,组成残差区块。其中,每个前区块中的每个像素点对应一个差值,具体的,对每个差值的绝对值进行求和运算。为了获得前帧图像中与前区块位置相对应的后区块,在后一帧图像中,获得与前区块位置相对应的后区块,当前区块中的每个像素点与后区块中的每个像素点一一位置相对应。其中,位置相对应指的是位置一一对应,例如前像素点的位置与后像素点的位置相同,具体体现为,前像素点的位置的取值与后像素点的位置的取值相同,例如,若前像素点的位置的取值为(1,2),后像素点的位置的取值为(1,2),则前像素点与后像素点位置相对应。如此,前区块和后区块的大小一致。具体的,通过下述公式(1)获得第一差值信息。
Figure BDA0002284988960000071
其中,a(i,j)表示前像素点(m,n)对应的前区块中的像素点(i,j)的取值,b(i,j)表示后区块中与像素点(i,j)位置相对应的像素点的取值,k表示前区块在横轴方向的像素点的数量,s1(m,n)表示第一差值信息。通过采用于前像素点对应的前区块中的每个像素点的取值,减去与前像素点对应的后区块中的与前区块的每个像素点一一对应的每个像素点的取值,求取获得的差值的绝对值,对这些像素点对应的绝对值进行求和,获得第一差值信息,进而得到的残差区块可以准确表征前帧图像相对于后一帧图像的差别。
针对将残差区域与所述当前帧图像进行融合,获得融合当前帧图像,具体为:
首先,获得残差区域中的像素点(i,j)的像素值与所述当前帧图像中的像素点(i,j+k)的像素值之和,其中,i,j是正整数,k是大于或等于0的整数。然后,若和大于255,融合当前帧图像的像素点(i,j)的像素值为第一差值,第一差值为255与和与255的商的余数之差值。例如,残差区域中的像素点(i,j)的像素值与所述当前帧图像中的像素点(i,j+k)的像素值之和为Y,Y>255,Y/255的余数为X,则第一差值等于255-X。若和不大于255,融合当前帧图像的像素点(i,j)的像素值为和。即融合当前帧图像的像素点(i,j)的像素值为Y。通过采用以上方案,融合当前帧图像的像素值融合了残差区域和当前帧图像的像素点的像素值的特点,在增强了融合当前帧图像的特征的同时,保证了融合当前帧图像的保真性,进而为提高目标检测的精度奠定了基础。
其中,针对将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像,具体为:获得高频当前帧图像中像素点(i,j)的像素值与低频当前帧图像中像素点(i,j)的平均值;确定平均值作为复合当前帧图像的像素点(i,j)的像素值。提高了复合当前帧图像的特征的准确性。
作为一种可选的实施方式,将高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像的步骤具体为:若高频当前帧图像中像素点(i,j)的像素值与低频当前帧图像中像素点(i,j)的像素值相等,且像素点的像素值为第一取值,则对复合当前帧图像的像素点(i,j)的像素值赋值成第二取值;若高频当前帧图像中像素点(i,j)的像素值与低频当前帧图像中像素点(i,j)的像素值相同,且像素点的像素值不为第一取值,则对复合当前帧图像的像素点(i,j)进行扩展,以使像素点(i,j)包括一个融合通道;对融合通道进行赋值,以使融合通道的取值为第二取值,第二取值与所述像素点的像素值和第一取值不同。通过采用以上方案,获得的复合当前帧图像包括了高频当前帧图像中的像素信息和低频当前帧图像中的像素信息,增强了复合当前帧图像的特征,进而为提高了检测的目标的准确性。
在本发明实施例中,基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域的步骤,具体为:对当前帧图像进行至少一次卷积处理后,获得第一输出数据;对第一输出数据进行两次池化处理后,获得第二输出数据;对第二输出数据进行至少两次卷积处理后,获得第三输出数据;对第三输出数据进行至少三次池化处理后,获得第四输出数据;对第四输出数据进行分类,获得当前目标区域。
可选的,第一卷积神经网络包括至少四个卷积层、至少五个池化层、以及一个分类层。第一卷积神经网络的结构可以为卷积层、卷积层、池化层、池化层、卷积层、卷积层、池化层、池化层、分类层。第一卷积神经网络的结构还可以为卷积层、卷积层、池化层、池化层、卷积层、卷积层、卷积层、池化层、池化层、池化层、池化层、分类层。其中,分类层可以是一个支持向量机模型。与分类层连接的池化层输出一个图像特征向量,分类层对图像特征向量进行分类识别,得到当前帧目标区域。
通过采用以上方案,对当前帧图像进行多长的卷积核池化操作,最后分类层对图像特征向量进行分类识别得到当前帧目标区域,提高了识别和检测当前帧目标区域的精度。
可选的,基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域,具体为:对复合当前帧图像进行至少三次池化处理后,获得第五输出数据;对第五输出数据进行至少两次卷积处理后,获得第六输出数据;对第六输出数据进行一池化处理和一次卷积处理后,获得第七输出数据;将第六输出数据和所述第七输出数据进行融合,获得第八输出数据;对第八输出数据进行至少两次池化处理和至少两次卷积处理后,获得第九输出数据;对第九输出数据进行分类,获得复合目标区域。
其中,第二卷积神经网络至少包括六个池化层、至少五个卷积层、融合层和分类层。可选的。第二卷积神经网络的结构可以是池化层、池化层、池化层、卷积层、卷积层、池化层、卷积层、融合层、池化层、池化层、卷积层、卷积层、分类层。第二卷积神经网络的结构可以是池化层、池化层、池化层、池化层、池化层、卷积层、卷积层、卷积层、卷积层、池化层、卷积层、融合层、池化层、池化层、池化层、池化层、卷积层、卷积层、卷积层、卷积层、分类层。其中,分类层可以是如上述的支持向量机模型。融合层用于分别对与其连接的卷积层的神经元的输出进行合并处理,其合并方式可以是加权累加或者进行抑或运算等,得到合并处理结果,然后将合并处理结果输出给池化层进行池化处理。最后的卷积层输出区域向量,经过分类层对区域向量进行分类,得到复合目标区域。
通过采用以上方案,对复合当前帧图像进行多长的卷积核池化操作,最后的卷积层输出区域向量,经过分类层对区域向量进行分类,得到目标区域,提高了识别和检测复合目标区域的精度。
可选的,获得当前帧目标区域和复合目标区域的距离的具体实施方式为:
获得当前帧目标区域和复合目标区域的外接圆;获得当前帧目标区域的外接圆的圆心和复合目标区域的外接圆的圆心之间欧氏距离;确定欧氏距离作为当前帧目标区域和复合目标区域的距离。其中,获得当前帧目标区域和复合目标区域的距离具体为:分别获当前帧目标区域和复合目标区域的重心;获得当前帧目标区域的重心和复合目标区域的重心之间欧氏距离;确定欧氏距离作为当前帧目标区域和复合目标区域的距离。
其中,所述的基于当前帧目标区域和复合目标区域,获得待检测的目标的具体实施方式可以是:获得当前帧目标区域和复合目标区域的交叉区域;确定交叉区域为待检测的目标。如此,提高了待检测的目标的准确性。
为了进一步提高待检测的目标的准确性,在确定交叉区域为待检测的目标之前,所述害虫图像目标检测方法还包括:对交叉区域进行渲染。其渲染方法可以是根据检查的部位的病理特征和颜色特征进行颜色的渲染,例如,如果是害虫图像的肺部,渲染后的待检测的目标就是一个彩色的肺部的图像。如果是害虫图像的头部,渲染后的待检测的目标就是一个头部骨架图像等。
为了提高渲染的准确性,进而提高目标检测的准确性,在对交叉区域进行渲染之前,害虫图像目标检测方法还包括:对交叉区域进行膨胀处理,以使交叉区域的尺寸接近待测目标的尺寸。对交叉区域进行膨胀处理,以使交叉区域的尺寸接近待测的目标的尺寸,提高了渲染后的交叉区域的清晰度,提高了目标检测的准确性。
在本发明实施例中,目标值可以是根据经验的一个预设值,例如,0.2。为了进一步提高目标检测的准确性,通过下述方式获得目标值:基于当前帧目标区域获得第一目标向量;基于复合目标区域获得第二目标向量;基于训练好的支持向量机模型对第一目标向量进行分类,获得第一目标值;基于训练好的支持向量机模型对第二目标向量进行分类,获得第二目标值;获得第一目标值和所述第二目标值之差,得到目标差值,以该目标差值作为目标值。第二目标值可以是0.3。
作为一种可选的实施例,害虫图像目标检测方法包括:获得害虫扫描仪扫描的待检测区域的害虫视频。基于害虫视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域。将残差区域与所述当前帧图像进行融合,获得融合当前帧图像。对融合当前帧图像进行高通滤波,获得高频当前帧图像。对所述融合当前帧图像进行低通滤波,获得低频当前帧图像。将高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像。基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域。基于当前帧目标区域获得第一目标向量。基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域。基于复合目标区域获得第二目标向量。基于训练好的支持向量机模型对第一目标向量进行分类,获得第一目标值;基于训练好的支持向量机模型对第二目标向量进行分类,获得第二目标值;获得第一目标值和第二目标值之差,得到目标差值,以该目标差值作为目标值。获得当前帧目标区域和所述复合目标区域的距离。若距离小于目标值,基于当前帧目标区域和复合目标区域,得到待检测的害虫图像。
通过采用以上方案,通过采用以上方案,通过基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域,将残差区域与当前帧图像进行融合,获得融合当前帧图像,增强了当前帧图像的特征信息。通过对融合当前帧图像进行高通滤波,获得高频当前帧图像,高频当前帧图像保留了当前帧图像的高频特征信息,对融合当前帧图像进行低通滤波,获得低频当前帧图像,低频当前帧图像保留了当前帧图像的低频特征信息,将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像,增强了复合当前帧图像中的特征信息,同时提高了特征信息的保真性。基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域;基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域,进一步提高了目标在符合目标区域中的概率,提高了目标检测的准确性。基于当前帧目标区域获得第一目标向量,基于复合目标区域获得第二目标向量,基于训练好的支持向量机模型对第一目标向量进行分类,获得第一目标值;基于训练好的支持向量机模型对第二目标向量进行分类,获得第二目标值;获得第一目标值和第二目标值之差,得到目标差值,以该目标差值作为目标值。获得当前帧目标区域和复合目标区域的距离,若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标,结合了传统神经网络的目标检测的结果,加上准确性高的第二神经网络的目标检测结果,提高了目标检测的准确性,提高了待检测的目标的精度。同时,目标值是基于前帧目标区域和复合目标区域获得,以目标值作为判断的基准,可以提高目标检测的准确性。
本发明的有益效果在于:
1、本发明的药箱是水平放置的,药液在消耗的过程当中,药液的水平高度不会变化,因此不会造成高度变化对喷口处的压强影响,进而影响到喷洒的均匀性,同时由于药箱是水平放置的,为了减少药液的消耗对重心的影响,随着药液的消耗,活塞处压强减低,压强传感器将压强信号传递给控制器,控制器控制电机,电机驱动螺杆转动,螺杆拉动固定片进而拉动药箱向着固定板的方向运动,这样活塞不动药箱运动的方式能够尽可能的减少重心的变动距离,提高无人机的稳定性;
2、本发明通过活塞挤压药液的方式,能够使得药液内的压强维持在稳定的水平,使得喷洒更加的均匀;
3、本发明的弹性杆组件具有兼具刚性和弹性的功能,将弹性杆组件受到的挤压力较小的时候,第一弹性杆和第二弹性杆不会发生移动,整个弹性杆保持为刚性的状态,提供充分的挤压活塞,当弹性杆组件受到的挤压力较大的时候,第一弹性杆和第二弹性杆能够相对移动,使得弹性杆组件的长度变小,以减少弹性组件对活塞的挤压,进而避免储液腔的压强发生巨大变化,使其压强保持在稳定的水平。
4、本发明的害虫检测系统和检测方法能够实现对害虫的精准检测,获取害虫的分布情况,根据害虫的分布情况进行农药喷洒的密度和区域,能够节约农药,也防止对环境的破坏。

Claims (8)

1.一种害虫检测方法,其特征在于,所述方法包括:
获得待检测区域的视频,所述待检测区域包括害虫,所述待检测区域的视频包括多帧图像,所述图像中包含害虫的图像信息;
基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域;
获得所述残差区域中的像素点(i,j)的像素值与所述当前帧图像中的像素点(i,j+k)的像素值之和,其中,所述i,j是正整数,所述k是大于或等于0的整数;
若所述和大于255,确定第一差值为融合当前帧图像的像素点(i,j)的像素值,所述第一差值为255与所述和与255的商的余数之差值;若所述和小于或者等于255,确定所述和融合当前帧图像的像素点(i,j)的像素值;
对所述融合当前帧图像进行滤波,获得高频当前帧图像和获得低频当前帧图像;
若所述高频当前帧图像中像素点(i,j)的像素值与所述低频当前帧图像中像素点(i,j)的像素值相等,且所述像素点的像素值为第一取值,则赋值第二取值给所述复合当前帧图像的像素点(i,j)的像素值;
若所述高频当前帧图像中像素点(i,j)的像素值与低频当前帧图像中像素点(i,j)的像素值相同,且像素点的像素值不为第一取值,则对复合当前帧图像的像素点(i,j)进行扩展,以使像素点(i,j)包括一个融合通道;对融合通道进行赋值,以使融合通道的取值为第二取值,第二取值与所述像素点的像素值和第一取值不同;
基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域;
对所述复合当前帧图像进行至少三次池化处理后,获得第五输出数据;
对所述第五输出数据进行至少两次卷积处理后,获得第六输出数据;
对所述第六输出数据进行一池化处理和一次卷积处理后,获得第七输出数据;
将所述第六输出数据和所述第七输出数据进行融合,获得第八输出数据;
对所述第八输出数据进行至少两次池化处理和至少两次卷积处理后,获得第九输出数据;
对所述第九输出数据进行分类,获得所述复合目标区域;
获得所述当前帧目标区域和所述复合目标区域的距离;
若所述距离小于设定阈值,基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标,所述待检测的目标就是害虫。
2.根据权利要求1所述的方法,其特征在于,在所述对所述融合当前帧图像进行滤波,获得高频当前帧图像和获得低频当前帧图像之后,在所述基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域之前,所述方法包括:
获得所述高频当前帧图像中像素点(I,j)的像素值与所述低频当前帧图像中像素点(I,j)的平均值;
确定所述平均值作为所述符合当前帧图像的像素点(I,j)的像素值。
3.根据权利要求1所述的方法,其特征在于,所述基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域,包括:
对所述当前帧图像进行至少一次卷积处理后,获得第一输出数据;
对所述第一输出数据进行两次池化处理后,获得第二输出数据;
对所述第二输出数据进行至少两次卷积处理后,获得第三输出数据;
对所述第三输出数据进行至少三次池化处理后,获得第四输出数据;
对所述第四输出数据进行分类,获得所述当前目标区域。
4.根据权利要求1所述的方法,其特征在于,所述获得所述当前帧目标区域和所述复合目标区域的距离,包括:
获得所述当前帧目标区域和所述复合目标区域的外接圆;
获得所述当前帧目标区域的外接圆的圆心和所述复合目标区域的外接圆的圆心之间欧氏距离;
确定所述欧氏距离作为所述当前帧目标区域和所述复合目标区域的距离。
5.根据权利要求1所述的方法,其特征在于,所述获得所述当前帧目标区域和所述复合目标区域的距离,包括:
分别获得所述当前帧目标区域和所述复合目标区域的重心;
获得所述当前帧目标区域的重心和所述复合目标区域的重心之间欧氏距离;
确定所述欧氏距离作为所述当前帧目标区域和所述复合目标区域的距离。
6.根据权利要求1所述的方法,其特征在于,所述基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标,包括:
获得所述当前帧目标区域和所述复合目标区域的交叉区域;
确定所述交叉区域为所述待检测的目标。
7.根据权利要求6所述的方法,其特征在于,在所述确定所述交叉区域为所述待检测的目标之前,所述方法还包括:
对所述交叉区域进行渲染。
8.根据权利要求7所述的方法,其特征在于,在所述对所述交叉区域进行渲染之前,所述方法还包括:
对所述交叉区域进行膨胀处理,以使所述交叉区域的尺寸接近所述待测目标的尺寸。
CN201911156649.1A 2019-11-22 2019-11-22 一种无人机害虫检测方法 Active CN111079546B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911156649.1A CN111079546B (zh) 2019-11-22 2019-11-22 一种无人机害虫检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911156649.1A CN111079546B (zh) 2019-11-22 2019-11-22 一种无人机害虫检测方法

Publications (2)

Publication Number Publication Date
CN111079546A true CN111079546A (zh) 2020-04-28
CN111079546B CN111079546B (zh) 2022-06-07

Family

ID=70311705

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911156649.1A Active CN111079546B (zh) 2019-11-22 2019-11-22 一种无人机害虫检测方法

Country Status (1)

Country Link
CN (1) CN111079546B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132480A (zh) * 2020-09-29 2020-12-25 姜锡忠 大数据在线教育平台的师资匹配方法及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140313303A1 (en) * 2013-04-18 2014-10-23 Digimarc Corporation Longitudinal dermoscopic study employing smartphone-based image registration
CN106709472A (zh) * 2017-01-17 2017-05-24 湖南优象科技有限公司 一种基于光流特征的视频目标检测与跟踪方法
CN107253485A (zh) * 2017-05-16 2017-10-17 北京交通大学 异物侵入检测方法及异物侵入检测装置
CN107358258A (zh) * 2017-07-07 2017-11-17 西安电子科技大学 基于nsct双cnn通道和选择性注意机制的sar图像目标分类
CN108197623A (zh) * 2018-01-19 2018-06-22 百度在线网络技术(北京)有限公司 用于检测目标的方法和装置
CN108229588A (zh) * 2018-02-08 2018-06-29 重庆师范大学 一种基于深度学习的机器学习识别方法
US20180293444A1 (en) * 2017-04-05 2018-10-11 International Business Machines Corporation Automatic pest monitoring by cognitive image recognition with two cameras on autonomous vehicles
CN109344702A (zh) * 2018-08-23 2019-02-15 北京华捷艾米科技有限公司 基于深度图像和彩色图像的行人检测方法及装置
CN109492543A (zh) * 2018-10-18 2019-03-19 广州市海林电子科技发展有限公司 红外图像的小目标检测方法与系统
CN110427839A (zh) * 2018-12-26 2019-11-08 西安电子科技大学 基于多层特征融合的视频目标检测方法
CN110717910A (zh) * 2019-10-16 2020-01-21 姜通渊 Ct图像目标检测方法及ct扫描仪

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140313303A1 (en) * 2013-04-18 2014-10-23 Digimarc Corporation Longitudinal dermoscopic study employing smartphone-based image registration
CN106709472A (zh) * 2017-01-17 2017-05-24 湖南优象科技有限公司 一种基于光流特征的视频目标检测与跟踪方法
US20180293444A1 (en) * 2017-04-05 2018-10-11 International Business Machines Corporation Automatic pest monitoring by cognitive image recognition with two cameras on autonomous vehicles
CN107253485A (zh) * 2017-05-16 2017-10-17 北京交通大学 异物侵入检测方法及异物侵入检测装置
CN107358258A (zh) * 2017-07-07 2017-11-17 西安电子科技大学 基于nsct双cnn通道和选择性注意机制的sar图像目标分类
CN108197623A (zh) * 2018-01-19 2018-06-22 百度在线网络技术(北京)有限公司 用于检测目标的方法和装置
CN108229588A (zh) * 2018-02-08 2018-06-29 重庆师范大学 一种基于深度学习的机器学习识别方法
CN109344702A (zh) * 2018-08-23 2019-02-15 北京华捷艾米科技有限公司 基于深度图像和彩色图像的行人检测方法及装置
CN109492543A (zh) * 2018-10-18 2019-03-19 广州市海林电子科技发展有限公司 红外图像的小目标检测方法与系统
CN110427839A (zh) * 2018-12-26 2019-11-08 西安电子科技大学 基于多层特征融合的视频目标检测方法
CN110717910A (zh) * 2019-10-16 2020-01-21 姜通渊 Ct图像目标检测方法及ct扫描仪

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LORIS NANNI等: "《Insect pest image detection and recognition based on bio-inspired methods》", 《ARXIV》 *
李旭东 等: "《骚扰阿蚊线粒体全基因组序列测定和分析》", 《昆虫学报》 *
欧阳亚丽 等: "《超声散射子特性成像评估乳腺肿瘤良恶性研究》", 《医疗卫生装备》 *
陈娟 等: "《基于改进残差网络的园林害虫图像识别》", 《农业机械学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132480A (zh) * 2020-09-29 2020-12-25 姜锡忠 大数据在线教育平台的师资匹配方法及系统

Also Published As

Publication number Publication date
CN111079546B (zh) 2022-06-07

Similar Documents

Publication Publication Date Title
US10645300B2 (en) Methods and apparatus for image processing
JP6312178B2 (ja) ナビゲーションシステム、輸送機の状態情報を評価する方法、及び、輸送機の状態情報を評価する装置
CN106054903B (zh) 一种多旋翼无人机自适应降落方法及系统
US20180004232A1 (en) Camera configuration on movable objects
CN106127201B (zh) 一种基于视觉定位降落末端的无人机降落方法
CN108153334B (zh) 无合作目标式无人直升机视觉自主返航与着降方法及系统
CN108622432A (zh) 一种皮卡型车载无人机智能起降和自主续航系统
CN109683629B (zh) 基于组合导航和计算机视觉的无人机电力架线系统
CN107850901A (zh) 使用惯性传感器和图像传感器的传感器融合
CN107284661B (zh) 警用运动目标追踪无人机
CN107850899A (zh) 使用惯性传感器和图像传感器的传感器融合
CN110844074A (zh) 一种农药喷洒无人机
Cherian et al. Autonomous altitude estimation of a UAV using a single onboard camera
CN108163203B (zh) 一种拍摄控制方法、装置及飞行器
CN111824406A (zh) 一种基于机器视觉的公共安全自主巡查四旋翼无人机
CN107108023A (zh) 无人机及其控制方法
CN113406975B (zh) 一种仿生智能多无人机集群自主编队导航控制方法及装置
CN111831010A (zh) 一种基于数字空间切片的无人机避障飞行方法
CN111079546B (zh) 一种无人机害虫检测方法
CN112580537A (zh) 一种用于多无人机系统持续覆盖特定区域的深度强化学习方法
JP2019050007A (ja) 移動体の位置を判断する方法および装置、ならびにコンピュータ可読媒体
Chiu et al. Vision-only automatic flight control for small UAVs
CN107264797B (zh) 人群聚集预警无人机
CN109709975B (zh) 一种基于视觉slam的四旋翼飞行器室内安防系统及方法
CN112987765B (zh) 一种仿猛禽注意力分配的无人机/艇精准自主起降方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant