CN113298023B - 一种基于深度学习及图像技术的昆虫动态行为识别方法 - Google Patents

一种基于深度学习及图像技术的昆虫动态行为识别方法 Download PDF

Info

Publication number
CN113298023B
CN113298023B CN202110656390.8A CN202110656390A CN113298023B CN 113298023 B CN113298023 B CN 113298023B CN 202110656390 A CN202110656390 A CN 202110656390A CN 113298023 B CN113298023 B CN 113298023B
Authority
CN
China
Prior art keywords
insect
frame
image
matrix
roi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110656390.8A
Other languages
English (en)
Other versions
CN113298023A (zh
Inventor
詹炜
董天豫
洪胜兵
闵超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangtze University
Original Assignee
Yangtze University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangtze University filed Critical Yangtze University
Priority to CN202110656390.8A priority Critical patent/CN113298023B/zh
Publication of CN113298023A publication Critical patent/CN113298023A/zh
Application granted granted Critical
Publication of CN113298023B publication Critical patent/CN113298023B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Abstract

本发明涉及一种行为识别方法,具体涉及一种基于深度学习及图像技术的昆虫动态行为识别方法。该识别方法,包括如下步骤:1)、获取数据源视频;2)、处理图像;3)、建立识别模型;4)、提取时间空间特征;5)、深度学习;6)、识别分类昆虫动态行为。该识别方法通过将昆虫身体分为头部和尾部区域,分别提取ROI,且分别对头部和尾部ROI进行检测,能有效避免昆虫当前行为对身体其他部位造成的震动干扰导致误判,进而能有效提高准确率;同时在对关键点识别模型和神经网络模型进行训练后,即能通过关键点识别模型和神经网络模型自动识别昆虫行为生成结果,进而能大大减少人工观测时间;解决了现有现有方法费时费力,准确性不佳的问题。

Description

一种基于深度学习及图像技术的昆虫动态行为识别方法
技术领域
本发明涉及一种行为识别方法,具体涉及一种基于深度学习及图像技术的昆虫动态行为识别方法。
背景技术
作物和储藏物历来一直饱受害虫的侵袭,研究昆虫行为的种类,规律和功能,可为昆虫的防治和预测预报提供理论基础。近年来,在农业生产中计算机视觉技术的应用越来越多,利用计算机代替人工监控、统计,有着更高的效率,为农业生产的调控提供可靠、准确的依据。
目前鲜有专门针对昆虫行为识别的方法,对动物的行为识别主要通过人工观察分析统计、光流法和关键点定位法。人工观察分析统计时研究人员需要一帧一帧地播放视频,并手动记录每次梳理行为的时间间隔,这既费时费力,又不准确;人工观察法效率偏低、耗时长、人员易疲劳,数据偏差随观察时间增加而增多,影响最终研究结论。国外有少量对于昆虫行为识别的研究,其利用计算机程序对昆虫行为检测和分析,但其对昆虫行为检测和分析的准确性欠佳。
发明内容
本发明的目的是:提供一种能在保证昆虫行为检测和分析的准确性的情况下,同时能大大减少人工观测的时间,以解决现有方法费时费力,准确性不佳问题的基于深度学习及图像技术的昆虫动态行为识别方法。
本发明的技术方案是:
一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:包括如下步骤:
1)、获取数据源视频
a、通过录像设备使用高清摄像头,拍摄视频分辨1920*1080、帧率为25帧每秒的透明培养皿中自由活动的昆虫背面和正面区域场景视频;
2)、处理图像
b、将拍摄的昆虫行为视频筛选整理,按时序逐帧读取,使用图像处理技术对帧图片阈值分割,阈值分割时根据拍摄背景的颜色直方图确定区间阈值,最低阈值low在[60,50,20]至[100,70,60] 范围内确定,最高阈值high在[200,200,200]至[255,255,255]范围内确定,将最低阈值low和最高阈值high之间的颜色值(RGB数值)变为255,将最低阈值low和最高阈值high之间的颜色值变为0,从而无噪点地提取图像中的昆虫背景,提取出的部分转换为一个含有昆虫背景信息的灰度图像,将获得的灰度图像矩阵取反,获得该帧中只含有昆虫身体像素信息的图像;
c、将拍摄的昆虫行为视频筛选整理,按时序逐帧读取,对图像进行灰度化处理,生成带有时间信息的灰度图像;
3)、建立识别模型
d、对步骤c中获得的图像通过帧间差分强度局部最大值关键帧提取算法,提取关键点识别训练帧,每分钟视频提取出1-2帧,提取训练帧后,在训练帧中标记头部和尾部的关键点,训练帧中的数据使用尺度抖动与随机旋转进行增强,尺度抖动的范围为0.5-1.5,随机旋转的范围为±25,增强后,向数据中添加随机运动模糊与弹性形变;
e、将步骤d处理获得的训练帧投入关键点识别算法DeepLabCut在ImageNet数据集上预训练过的ResNet50训练网络中,通过训练帧对关键点识别算法DeepLabCut进行训练获得一个昆虫头部与尾部关键点识别模型;
f、使用步骤e获得的识别模型识别昆虫动态行为视频,得到每一帧中昆虫头、尾的坐标与预测概率,对于预测概率小于60%的关键点,将其坐标设置为最近一次概率高于60%的坐标值,对坐标和识别模型进行修正;
4)、提取时间空间特征
g、利用训练后的识别模型识别的每一帧的头、尾坐标,以头、尾坐标为中心将视频帧与昆虫信息图像分别裁剪出2块ROI(即感兴趣区域。图像处理技术中,从被处理的图像以方框、圆、椭圆、不规则多边形等方式勾勒出需要处理的区域,称为感兴趣区域);
h、时间窗口设定范围t为5-15帧,重复步骤ft次,将每一块ROI重构、堆叠,得到ROI特征提取窗口矩阵T,将矩阵T变换为矩阵F,通过矩阵F获得质心矩阵M;
i、以矩阵M为红色通道保存,以矩阵T中的第二行帧信息为蓝色通道保存,生成昆虫时空信息特征图像;
5)、深度学习
j、根据步骤i中生成的时空特征图像特点,将不同行为的时空特征图像分类存放并进行标签标注;
k、利用步骤j分类并标注的时空特征图像对神经网络模型VGG16进行训练,对其网络参数进行修改;
6)、识别分类昆虫动态行为
l、通过步骤k中训练后的神经网络模型VGG16对需要检测的视频数据进行预测,生成ROI区域图像和统计结果表。
优选地,所述的最低阈值low=[80,60,40],最高阈值high=[255,255,255]。
所述的阈值分割公式为:
Figure 406443DEST_PATH_IMAGE001
式中,
Figure 743359DEST_PATH_IMAGE002
为图像中的颜色值;
将获得的
Figure 881079DEST_PATH_IMAGE003
数值填充至矩阵
Figure 608864DEST_PATH_IMAGE004
Figure 832035DEST_PATH_IMAGE005
将矩阵
Figure 506730DEST_PATH_IMAGE006
取反获得的该帧中只含有昆虫身体像素信息的图像矩阵为:
Figure 171061DEST_PATH_IMAGE007
所述的步骤f中裁剪ROI大小根据昆虫大小设置,超出帧边界的区域使用0像素填充为设定的ROI大小。
所述的步骤g中矩阵T为:
Figure 538588DEST_PATH_IMAGE008
式中,
Figure 249055DEST_PATH_IMAGE009
为第w帧图像中第
Figure 993020DEST_PATH_IMAGE010
个像素的像素值,
Figure 902070DEST_PATH_IMAGE010
为ROI中的像素数量,
Figure 706078DEST_PATH_IMAGE011
为时间窗口的帧数;
将矩阵T进行在列方向上的快速傅立叶变换并取绝对值,得到矩阵F:
Figure 903841DEST_PATH_IMAGE012
式中,ABS为取绝对值函数,FFT为快速傅里叶变换函数,参数Ty 表示ROI特征提取窗口矩阵T的列方向矩阵;
将矩阵F在列方向上计算每一个像素的质心,将得到的质心存入向量
Figure 466146DEST_PATH_IMAGE013
中,获得的向量
Figure 636227DEST_PATH_IMAGE014
为:
Figure 673453DEST_PATH_IMAGE015
式中,
Figure 92933DEST_PATH_IMAGE016
为第
Figure 647542DEST_PATH_IMAGE017
个像素的质心;
将质心向量
Figure 468868DEST_PATH_IMAGE018
重构为ROI大小的质心矩阵,将矩阵中的元素值大小限制在0到1之间,获得矩阵M:
Figure 880258DEST_PATH_IMAGE019
优选的,所述的时间窗口设定范围
Figure 787034DEST_PATH_IMAGE020
为7帧,重复步骤f7次。
所述的神经网络模型VGG16共有16层,神经网络模型VGG16由13个卷积层、3个全连接层和一个softmax分类器构成,卷积核大小均为3×3。
所述的神经网络模型VGG16网络结构依次描述如下:
将输入图片形状转化为(100,100,3);
经过两次卷积核个数为32 ,卷积核大小为3×3的卷积网络,输出形状为(100,100,32),再经过窗口大小为2×2的最大池化层,输出形状为(50,50,32);
经过两次卷积核个数为64 ,卷积核大小为3×3的卷积网络,输出形状为(50,50,64),再经过窗口大小为2×2的最大池化层,输出形状为(25,25,64);
经过三次卷积核个数为128,卷积核大小为3×3的卷积网络,输出形状为(25,25,128),再经过窗口大小为2×2的最大池化层,输出形状为(13,13,128);
经过三次卷积核个数为256 ,卷积核大小为3×3的卷积网络,输出形状为(13,13,256),再经过窗口大小为2×2的最大池化层,输出形状为(7,7,256);
经过三次卷积核个数为512 ,卷积核大小为3×3的卷积网络,输出形状为(7,7,512),再经过窗口大小为2×2的最大池化层,输出形状为(3,3,512);
前两个全连接层输出形状为均为(1,1,4096),最后一个全连接层输出形状(1,1,num_classes),num_classes为需要判断的昆虫行为类型种类数;
softmax分类器进行分类
按8:2的比例分为训练集和验证集送入卷积神经网络训练,训练50次直至收敛得到完成的模型。
本发明的有益效果在于:
该基于深度学习及图像技术的昆虫动态行为识别方法通过将昆虫身体分为头部和尾部区域,分别提取ROI,且分别对头部和尾部ROI进行检测,能有效避免昆虫当前行为对身体其他部位造成的震动干扰导致误判,进而能有效提高准确率;同时在对关键点识别模型和神经网络模型进行训练后,即能通过关键点识别模型和神经网络模型自动识别昆虫行为生成结果,进而能大大减少人工观测时间;解决了现有现有方法费时费力,准确性不佳的问题。
附图说明
图1是本发明的总体流程示意图;
图2是本发明昆虫典型行为时空特征图像的示意图;
图3是本发明神经网络的网络结构示意图;
图4是本发明昆虫行为检测判断方法示意图;
图5是本发明程序检测行为可视化显示的示意图;
图6是本发明系统自动分析生成的昆虫行为动作区间统计结果图。
具体实施方式
该基于深度学习及图像技术的昆虫动态行为识别方法,包括如下步骤:
昆虫样本从湖北荆州,海南海口,云南昆明等地域实地获取,研究的虫类有柑橘大实蝇,桔小实蝇,泽兰实蝇,瓜实蝇等品种,采用不同地域不同种类的昆虫作为实验研究的数据集训练神经网络模型可提升行为识别的泛化性,进而提高准确率。将获取的昆虫放置在透明培养皿中,将录像设备的高清摄像头对准培养皿,使培养皿处于视频的中部,由此进行数据源视频获取,拍摄视频分辨为1920*1080、帧率为25帧每秒;录像设备使用高清摄像头,以清晰获取透明培养皿中自由活动的昆虫背面和正面区域场景视频;
图像处理,将拍摄的昆虫行为视频筛选整理,按时序逐帧读取,使用图像处理技术对帧图片阈值分割,阈值分割时根据拍摄背景的颜色直方图确定区间阈值,最低阈值low在[60,50,20]至[100,70,60] 范围内确定,最高阈值high在[200,200,200]至[255,255,255]范围内确定,优选地,所述的最低阈值low=[80,60,40],最高阈值high=[255,255,255];
通过阈值分割公式:
Figure 676492DEST_PATH_IMAGE021
式中,
Figure 617904DEST_PATH_IMAGE022
为图像中的颜色值;
将最低阈值low和最高阈值high之间的颜色值(RGB数值)变为255,将最低阈值low和最高阈值high之间的颜色值变为0;
将获得的
Figure 200195DEST_PATH_IMAGE023
数值填充至矩阵
Figure 266371DEST_PATH_IMAGE024
Figure 628695DEST_PATH_IMAGE025
从而无噪点地提取图像中的昆虫背景,提取出的部分转换为一个含有昆虫背景信息的灰度图像,得到的灰度图像在保存梯度这一重要特征信息的前提下大大减少了图片处理的计算量;
将矩阵
Figure 424612DEST_PATH_IMAGE026
取反获得该帧中只含有昆虫身体像素信息的图像矩阵:
Figure 381067DEST_PATH_IMAGE027
即将获得的灰度图像矩阵取反,获得该帧中只含有昆虫身体像素信息的图像(S-ROI);
将拍摄的昆虫行为视频筛选整理,按时序逐帧读取,对图像进行灰度化处理,生成带有时间信息的灰度图像;
建立识别模型,对获得的带有时间信息的灰度图像通过帧间差分强度局部最大值关键帧提取算法,提取关键点识别训练帧,每分钟视频提取出1-2帧,提取训练帧后,在训练帧中标记头部和尾部的关键点,由于昆虫体积较小,身体前半部分的行为可能会带动后半部分的躯体震动,导致行为检测不准确,如昆虫进行前足梳理行为时带动了后足的震动,可能导致程序误判为后足梳理行为,由此采用关键点识别跟踪技术将昆虫躯体分为前后两部分,分别对头部和尾部区域进行识别,从而有效的避免了误判情况的发生;使用DeepLabCut算法识别并跟踪昆虫的头部与尾部区域,训练帧中的数据使用尺度抖动与随机旋转进行增强,尺度抖动的范围为0.5-1.5,随机旋转的范围为±25,增强后,向数据中添加随机运动模糊与弹性形变,由于数据对于神经网络的训练至关重要,通常原始数据量越大,训练出来的模型精度越高,泛化能力越强,但其在做数据标注也会增加数据处理量,费时费力,且收集大规模可用数据往往不易,故利用已有的数据,通过以上数据增强技术,可以制造出更多的图片,进而提高训练后网络模型的精度和泛化能力;
将处理获得的训练帧投入关键点识别算法DeepLabCut中在ImageNet数据集上预训练过的ResNet50训练网络中,通过训练获得一个昆虫头部与尾部关键点识别模型,具体为:
投入ResNet50网络训练的帧图片下采样至640×640分辨率,批处理大小为1,优化器使用SGD,迭代10万次,采用阶梯式学习率设置方式:迭代次数50000以前学习率为2e-3,50000-75000次时为1e-3,75000-100000时为5e-4,训练出一个可以检测昆虫头部与尾部的关键点检测模型。
使用获得的关键点检测模型识别昆虫头尾部区域信息,为了平滑识别关键点出现的相对位置并准确得到昆虫头、尾坐标,将识别概率大于60%的关键点直接取用,对于预测概率小于60%的关键点,将其坐标设置为之前最近一帧概率高于60%的坐标值,进而对坐标和识别模型进行修正。
时间空间特征信息提取,利用训练后的识别模型识别的每一帧的头、尾坐标,以头、尾坐标为中心将视频帧中昆虫信息图像分别裁剪出2块ROI,裁剪ROI大小根据昆虫大小设置,超出帧边界的区域使用0像素填充为设定的ROI大小。
设定时间窗口范围t为5-15帧,重复t次;设定时间窗口范围为5-15帧均可提取昆虫行为的时空特征,经实验表明时间窗口取7帧时可兼顾生成效果和生成效率,从而优选地设定时间窗口为7帧,重复步骤7次,将裁切的每一块ROI重构为行向量,分别堆叠头、尾ROI,得到ROI特征提取窗口矩阵T,将矩阵T变换为矩阵F,通过矩阵F获得质心矩阵M,具体为:
矩阵T为:
Figure 528014DEST_PATH_IMAGE028
式中,
Figure 493696DEST_PATH_IMAGE029
为第w帧图像中第
Figure 347383DEST_PATH_IMAGE030
个像素的像素值,
Figure 5897DEST_PATH_IMAGE031
为ROI中的像素数量,
Figure 171300DEST_PATH_IMAGE032
为时间窗口的帧数;
将矩阵T进行在列方向上的快速傅立叶变换并取绝对值,得到矩阵F:
Figure 206252DEST_PATH_IMAGE033
式中,ABS为取绝对值函数,FFT为快速傅里叶变换函数,参数Ty 表示ROI特征提取窗口矩阵T的列方向矩阵;
将矩阵F在列方向上计算每一个像素的质心,将得到的质心存入向量
Figure 976762DEST_PATH_IMAGE034
中,获得的向量
Figure 806177DEST_PATH_IMAGE035
为:
Figure 396559DEST_PATH_IMAGE036
式中,
Figure 238131DEST_PATH_IMAGE037
为第
Figure 597568DEST_PATH_IMAGE038
个像素的质心;
将质心向量
Figure 660202DEST_PATH_IMAGE039
重构为ROI大小的质心矩阵,将矩阵中的元素值大小限制在0到1之间,获得矩阵M:
Figure 472301DEST_PATH_IMAGE040
以矩阵M为红色通道保存,以矩阵T中的第二行帧信息为蓝色通道保存,以S-ROI为绿色通道保存,分别生成一张昆虫图像的头部区域和尾部区域的时空信息特征图像。
深度学习,根据时空特征图像特点,将时空特征图像中的昆虫行为分为前足梳理、头部梳理、中足梳理、前中足梳理、腹部梳理、后足梳理、中后足梳理、翅膀梳理,将不同行为的时空特征图像分类存放并进行标签标注;将分类并标注的时空特征图像送入神经网络模型VGG16进行训练,对其网络参数进行修改;由于时空特征图像分为头部区域时空特征图像和尾部区域时空特征图像,各种不同行为间的时空图像区别度较高,从而使训练后的神经网络模型VGG16识别昆虫行为时更准确。
神经网络模型VGG16共有16层,神经网络模型VGG16由13个卷积层、3个全连接层和一个softmax分类器构成,卷积核大小均为3×3;神经网络模型VGG16网络结构依次描述如下:
将输入图片形状转化为(100,100,3);
经过两次卷积核个数为32 ,卷积核大小为3×3的卷积网络,输出形状为(100,100,32),再经过窗口大小为2×2的最大池化层,输出形状为(50,50,32);
经过两次卷积核个数为64 ,卷积核大小为3×3的卷积网络,输出形状为(50,50,64),再经过窗口大小为2×2的最大池化层,输出形状为(25,25,64);
经过三次卷积核个数为128,卷积核大小为3×3的卷积网络,输出形状为(25,25,128),再经过窗口大小为2×2的最大池化层,输出形状为(13,13,128);
经过三次卷积核个数为256 ,卷积核大小为3×3的卷积网络,输出形状为(13,13,256),再经过窗口大小为2×2的最大池化层,输出形状为(7,7,256);
经过三次卷积核个数为512 ,卷积核大小为3×3的卷积网络,输出形状为(7,7,512),再经过窗口大小为2×2的最大池化层,输出形状为(3,3,512);
前两个全连接层输出形状为均为(1,1,4096),最后一个全连接层输出形状(1,1,num_classes),num_classes为需要判断的昆虫行为类型种类数;
softmax分类器进行分类,按8:2的比例分为训练集和验证集送入卷积神经网络训练,训练50次直至收敛得到完成的模型。
昆虫动态行为识别分类,对需要检测的视频,使用训练后的关键点识别模型自动识别标记关键点,即标记图像中的头部和尾部区域,标记关键点后,自动裁切获得头部和尾部区域ROI,从而提取头部区域和尾部区域的时空特征图像;提取完成时空特征图像进入训练后的神经网络模型VGG16中,神经网络模型VGG16对时空特征图像中的昆虫行为进行识别,分别得出头部区域和尾部区域ROI的预测结果;对两个预测结果加以判断得出最终的行为预测结果,判断方法如下:由于昆虫在同一时间只会进行一种行为,由此首先判断该帧是否有行为发生,若头部区域和尾部区域ROI检测结果均无行为(表示为二者均等于0),则此帧最终判断为无行为;若其中一个的检测结果为有行为(表示为其一不等于0),则有行为的那个ROI的检测结果为此帧最终判断结果;若两个ROI检测结果存在不同种行为(表示为均不为0),则此帧最终判断结果为其中概率最大ROI的检测结果;行为识别判断方法如下:
Figure 114635DEST_PATH_IMAGE041
逐帧检测,将每一帧的检测结果存入列表L,对于列表L,列表L中元素值的索引对应被测视频的帧索引,即列表L存储的是每一帧图片的最终判断结果;由于昆虫一次行为一般至少持续0.5秒,设定只统计至少持续了10帧(0.4秒)以上的行为,且若一个行为没有在10帧中被连续检测到,判定为行为已经结束;判定行为结束时,从判定结束10帧的第一帧开始重新判断当前行为,其目的是为了过滤检测结果中偶尔出现的几帧错误检测的情况,即若列表L中有连续10以上个元素表示同一种行为,则判定这段时间昆虫正在执行该行为,若后续列表L中少于10个连续元素表示该行为,则判定该行为结束;
判断当前行为后,将ROI区域和行为的类型在源视频中标出,进行可视化显示;检测完成后,根据每一帧图像的检测结果划分出每种行为对应的区间,该区间包括每种行为的频次、持续时长与平均时长,对该区间进行统计,生成统计结果表,以统计结果表的形式进行显示。
该基于深度学习及图像技术的昆虫动态行为识别方法通过将昆虫身体分为头部和尾部区域,分别提取ROI,且分别对头部和尾部ROI进行检测,能有效避免昆虫当前行为对身体其他部位造成的震动干扰导致误判,进而能有效提高准确率;同时在对关键点识别模型和神经网络模型进行训练后,即能通过关键点识别模型和神经网络模型自动识别昆虫行为生成结果,进而能大大减少人工观测时间;解决了现有现有方法费时费力,准确性不佳的问题。

Claims (8)

1.一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:包括如下步骤:
1)、获取数据源视频
a、通过录像设备使用高清摄像头,拍摄视频分辨1920*1080、帧率为25帧每秒的透明培养皿中自由活动的昆虫背面和正面区域场景视频;
2)、处理图像
b、将拍摄的昆虫行为视频筛选整理,按时序逐帧读取,使用图像处理技术对帧图片阈值分割,阈值分割时根据拍摄背景的颜色直方图确定区间阈值,最低阈值low在[60,50,20]至[100,70,60] 范围内确定,最高阈值high在[200,200,200]至[255,255,255]范围内确定,将最低阈值low和最高阈值high之间的颜色值变为255,将最低阈值low和最高阈值high之间的颜色值变为0,从而无噪点地提取图像中的昆虫背景,提取出的部分转换为一个含有昆虫背景信息的灰度图像,将获得的灰度图像矩阵取反,获得该帧中只含有昆虫身体像素信息的图像;
c、将拍摄的昆虫行为视频筛选整理,按时序逐帧读取,对图像进行灰度化处理,生成带有时间信息的灰度图像;
3)、建立识别模型
d、对步骤c中获得的图像通过帧间差分强度局部最大值关键帧提取算法,提取关键点识别训练帧,每分钟视频提取出1-2帧,提取训练帧后,在训练帧中标记头部和尾部的关键点,训练帧中的数据使用尺度抖动与随机旋转进行增强,尺度抖动的范围为0.5-1.5,随机旋转的范围为±25,增强后,向数据中添加随机运动模糊与弹性形变;
e、将步骤d处理获得的训练帧输入关键点识别算法DeepLabCut在ImageNet数据集上预训练过的ResNet50训练网络中,通过训练帧对关键点识别算法DeepLabCut进行训练获得一个昆虫头部与尾部关键点识别模型;
f、使用步骤e获得的识别模型识别昆虫动态行为视频,得到每一帧中昆虫头、尾的坐标与预测概率,对于预测概率小于60%的关键点,将其坐标设置为最近一次概率高于60%的坐标值,对坐标和识别模型进行修正;
4)、提取时间空间特征
g、利用训练后的识别模型识别的每一帧的头、尾坐标,以头、尾坐标为中心将视频帧中的昆虫信息图像分别裁剪出2块ROI;
h、时间窗口设定范围t为5-15帧,重复步骤ft次,将每一块ROI重构、堆叠得到ROI特征提取窗口矩阵T,将矩阵T变换为矩阵F,通过矩阵F获得质心矩阵M;
i、以矩阵M为红色通道保存,以矩阵T中的第二行帧信息为蓝色通道保存,以S-ROI为绿色通道,生成昆虫时空信息特征图像;
5)、深度学习
j、根据步骤i中生成的时空特征图像特点,将时空特征图像中的昆虫行为分类存放并进行标签标注;
k、利用步骤j分类并标注的时空特征图像对神经网络模型VGG16进行训练,对其网络参数进行修改;
6)、识别分类昆虫动态行为
l、通过步骤k中训练后的神经网络模型VGG16对需要检测的视频数据进行预测,生成ROI区域图像统计结果表;
提取完成时空特征图像进入训练后的神经网络模型VGG16中,神经网络模型VGG16对时空特征图像中的昆虫行为进行识别,分别得出头部区域和尾部区域ROI的预测结果;对两个预测结果加以判断得出最终的行为预测结果,判断方法如下:首先判断该帧是否有行为发生,若头部区域和尾部区域ROI检测结果均无行为,则此帧最终判断为无行为;若其中一个的检测结果为有行为,则有行为的那个ROI的检测结果为此帧最终判断结果;若两个ROI检测结果存在不同种行为,则此帧最终判断结果为其中概率最大ROI的检测结果。
2.根据权利要求1所述的一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:所述的最低阈值low=[80,60,40],最高阈值high=[255,255,255]。
3.根据权利要求1所述的一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:所述的阈值分割公式为:
Figure DEST_PATH_IMAGE002
式中,
Figure DEST_PATH_IMAGE004
为图像中的颜色值;
将获得的
Figure DEST_PATH_IMAGE006
数值填充至矩阵
Figure DEST_PATH_IMAGE008
Figure DEST_PATH_IMAGE010
将矩阵
Figure DEST_PATH_IMAGE012
取反获得的该帧中只含有昆虫身体像素信息的图像矩阵:
Figure DEST_PATH_IMAGE014
4.根据权利要求1所述的一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:所述的步骤f中裁剪ROI大小根据昆虫大小设置,超出帧边界的区域使用0像素填充为设定的ROI大小。
5.根据权利要求1所述的一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:所述的步骤g中矩阵T为:
Figure DEST_PATH_IMAGE016
式中,
Figure DEST_PATH_IMAGE018
为第w帧图像中第
Figure DEST_PATH_IMAGE020
个像素的像素值,
Figure DEST_PATH_IMAGE022
为ROI中的像素数量,
Figure DEST_PATH_IMAGE024
为时间窗口的帧数;
将矩阵T进行在列方向上的快速傅里叶变换并取绝对值,得到矩阵F:
Figure DEST_PATH_IMAGE026
式中,ABS为取绝对值函数,FFT为快速傅里叶变换函数,参数Ty 表示ROI特征提取窗口矩阵T的列方向矩阵;
将矩阵F在列方向上计算每一个像素的质心,将得到的质心存入向量
Figure DEST_PATH_IMAGE028
中,获得的向量
Figure 345974DEST_PATH_IMAGE028
为:
Figure DEST_PATH_IMAGE030
式中,
Figure DEST_PATH_IMAGE032
为第
Figure DEST_PATH_IMAGE034
个像素的质心;
将质心向量
Figure DEST_PATH_IMAGE036
重构为ROI大小的质心矩阵,将矩阵中的元素值大小限制在0到1之间,获得矩阵M:
Figure DEST_PATH_IMAGE038
6.根据权利要求1所述的一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:所述的时间窗口设定范围t为7帧,重复步骤f7次。
7.根据权利要求1所述的一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:所述的神经网络模型VGG16共有16层,神经网络模型VGG16由13个卷积层、3个全连接层和一个softmax分类器构成,卷积核大小均为3×3。
8.根据权利要求1所述的一种基于深度学习及图像技术的昆虫动态行为识别方法,其特征在于:所述的神经网络模型VGG16网络结构依次描述如下:
将输入图片形状转化为(100,100,3);
经过两次卷积核个数为32 ,卷积核大小为3×3的卷积网络,输出形状为(100,100,32),再经过窗口大小为2×2的最大池化层,输出形状为(50,50,32);
经过两次卷积核个数为64 ,卷积核大小为3×3的卷积网络,输出形状为(50,50,64),再经过窗口大小为2×2的最大池化层,输出形状为(25,25,64);
经过三次卷积核个数为128,卷积核大小为3×3的卷积网络,输出形状为(25,25,128),再经过窗口大小为2×2的最大池化层,输出形状为(13,13,128);
经过三次卷积核个数为256 ,卷积核大小为3×3的卷积网络,输出形状为(13,13,256),再经过窗口大小为2×2的最大池化层,输出形状为(7,7,256);
经过三次卷积核个数为512 ,卷积核大小为3×3的卷积网络,输出形状为(7,7,512),再经过窗口大小为2×2的最大池化层,输出形状为(3,3,512);
前两个全连接层输出形状为均为(1,1,4096),最后一个全连接层输出形状(1,1,num_classes),num_classes为需要判断的昆虫行为类型种类数;
softmax分类器进行分类
按8:2的比例分为训练集和验证集送入卷积神经网络训练,训练50次直至收敛得到完成的模型。
CN202110656390.8A 2021-06-11 2021-06-11 一种基于深度学习及图像技术的昆虫动态行为识别方法 Active CN113298023B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110656390.8A CN113298023B (zh) 2021-06-11 2021-06-11 一种基于深度学习及图像技术的昆虫动态行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110656390.8A CN113298023B (zh) 2021-06-11 2021-06-11 一种基于深度学习及图像技术的昆虫动态行为识别方法

Publications (2)

Publication Number Publication Date
CN113298023A CN113298023A (zh) 2021-08-24
CN113298023B true CN113298023B (zh) 2022-09-23

Family

ID=77328195

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110656390.8A Active CN113298023B (zh) 2021-06-11 2021-06-11 一种基于深度学习及图像技术的昆虫动态行为识别方法

Country Status (1)

Country Link
CN (1) CN113298023B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113984763B (zh) * 2021-10-28 2024-03-26 内蒙古大学 一种基于视觉识别的驱虫剂药效实验装置及方法
CN114549516B (zh) * 2022-03-03 2023-01-17 石河子大学 一种应用于多种类高密度极小虫体行为学的智能分析系统
CN115294644A (zh) * 2022-06-24 2022-11-04 北京昭衍新药研究中心股份有限公司 一种基于3d卷积参数重构的快速猴子行为识别方法
CN117523617B (zh) * 2024-01-08 2024-04-05 陕西安康玮创达信息技术有限公司 基于机器学习的虫害检测方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11201903022UA (en) * 2016-10-28 2019-05-30 Verily Life Sciences Llc Predictive models for visually classifying insects
CN110276278A (zh) * 2019-06-04 2019-09-24 刘嘉津 昆虫图像整体与多片段综合自动识别方法
CN111476119B (zh) * 2020-03-26 2021-05-04 长江大学 一种基于时空上下文的昆虫行为识别方法及装置
CN111832642A (zh) * 2020-07-07 2020-10-27 杭州电子科技大学 一种基于vgg16在昆虫分类学上的图像识别方法

Also Published As

Publication number Publication date
CN113298023A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
CN113298023B (zh) 一种基于深度学习及图像技术的昆虫动态行为识别方法
Jia et al. Detection and segmentation of overlapped fruits based on optimized mask R-CNN application in apple harvesting robot
CN106778687B (zh) 基于局部评估和全局优化的注视点检测方法
Wu et al. Detection and counting of banana bunches by integrating deep learning and classic image-processing algorithms
CN110060233B (zh) 一种玉米果穗破损检测方法
CN111539273A (zh) 一种交通视频背景建模方法及系统
CN111738344B (zh) 一种基于多尺度融合的快速目标检测方法
CN105740758A (zh) 基于深度学习的互联网视频人脸识别方法
CN112598713A (zh) 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法
CN111400536B (zh) 一种基于轻量化深度神经网络的低成本番茄叶片病害识别方法
CN107871316B (zh) 基于深度神经网络的x光片手骨兴趣区域自动提取方法
CN112862849B (zh) 一种基于图像分割和全卷积神经网络的田间稻穗计数方法
CN113657326A (zh) 一种基于多尺度融合模块和特征增强的杂草检测方法
Rong et al. Pest identification and counting of yellow plate in field based on improved mask r-cnn
CN108038515A (zh) 无监督多目标检测跟踪方法及其存储装置与摄像装置
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
Rahim et al. Deep learning-based accurate grapevine inflorescence and flower quantification in unstructured vineyard images acquired using a mobile sensing platform
CN111476119B (zh) 一种基于时空上下文的昆虫行为识别方法及装置
CN111340019A (zh) 基于Faster R-CNN的粮仓害虫检测方法
CN114463843A (zh) 一种基于深度学习的多特征融合鱼类异常行为检测方法
Hu et al. Self-adversarial training and attention for multi-task wheat phenotyping
CN114663769B (zh) 一种基于YOLO v5的水果识别方法
CN108921872B (zh) 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
CN112883915B (zh) 一种基于迁移学习的麦穗自动识别方法和系统
CN116563205A (zh) 基于小目标检测和改进YOLOv5的麦穗计数检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant