CN115527234A - 一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法 - Google Patents

一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法 Download PDF

Info

Publication number
CN115527234A
CN115527234A CN202211078547.4A CN202211078547A CN115527234A CN 115527234 A CN115527234 A CN 115527234A CN 202211078547 A CN202211078547 A CN 202211078547A CN 115527234 A CN115527234 A CN 115527234A
Authority
CN
China
Prior art keywords
cage
model
image
attention
improved
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211078547.4A
Other languages
English (en)
Inventor
霍哓静
王英超
王文娣
王辉
唐娟
李丽华
张亭亭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei Agricultural University
Original Assignee
Hebei Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei Agricultural University filed Critical Hebei Agricultural University
Priority to CN202211078547.4A priority Critical patent/CN115527234A/zh
Publication of CN115527234A publication Critical patent/CN115527234A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法,主要包括以下步骤:S1:构建数据集,S2:构建基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型,S3:训练和评估构建的基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型。本发明对YOLOv5网络模型进行改进,降低了笼内死鸡误检、漏检的情况,精确率和召回率分别达到了96.4%和91.2%。在实际应用中,可以将模型部署在嵌入式端等设备中,实现移动端实时检测笼内死鸡状况。

Description

一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法
技术领域
本发明涉及深度学习和养殖技术领域,主要涉及一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法。
背景技术
近年来,我国的养鸡场养殖模式迎来了快速的发展,大部分养鸡场已经由传统的散养型养殖模式逐步转变为集约化、规模化养殖模式。笼内死鸡状况识别是规模化养鸡场的日常工作,死鸡腐烂会产生大量病菌,若不能及时检测死鸡,病菌会在周围扩散,导致畜禽发病,会给养殖场带来巨大经济损失。
然而,在现有的养殖过程中,笼内死鸡识别主要依靠养殖人员通过肉眼和经验判断鸡只状况(健康或死亡),存在作业效率低、劳动强度大等弊端,不利于对笼内死鸡进行及时检测识别。
随着深度学习理论的快速发展,基于深度卷积神经网络被广泛应用于各类畜禽状况的检测。现有的深度学习目标检测算法主要分为两类:一类为双阶段检测算法,常见的有FastR-CNN、SPP-Net等算法,这类算法检测精确度高,但是存在计算量大、检测速度慢等缺点。另一类为单阶段检测算法,常见的有YOLO系列算法、SSD系列算法等,这类算法检测速度较快,可以满足实时检测任务的需求。而YOLO系列算法检测速度相比其他单阶段检测算法普遍较快,从而得到了广泛的应用。
YOLOv5算法是YOLO系列算法的改进创新,具有比YOLOv3和YOLOv4更好的检测性能,可以更准确的检测到复杂背景中被遮挡的目标信息。
由于鸡舍内基于可见光的笼内死鸡检测系统易受禽舍内光线、环境变化因素的影响,多变的外界环境会影响图像识别的准确率。红外热成像通过非接触的方式来探测物体的红外能量,因其具有不依赖稳定光源、探测距离远等突出特性,解决了无光环境下探测的问题。因此在规模化养殖场中,采用红外热成像图像处理技术和YOLOv5算法来对笼内死鸡的特征进行提取检测。
由于笼内死鸡易被活鸡遮挡且死鸡形态多变,因此,为了进一步提高笼内死鸡识别的精确率,在目标识别算法YOLOv5的基础上,提供一种更高检测精度和检测能力的笼内死鸡识别方法是本领域技术人员亟需解决的重要问题。
发明内容
有鉴于此,为了解决上述技术问题,本发明提供了一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法,包括如下内容:
一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法,包括以下步骤:
S1:构建数据集
S1-1获取笼内鸡只的红外图像:使用红外热像仪采集笼内鸡只的红外图像;
S1-2图像扩充处理:在步骤1-1的基础上,对得到的鸡只的所述红外图像进行翻转、旋转,并随机调整亮度,采用基本图像处理方法进行图像扩充,得到数据集;
S1-3数据集标注:使用图像标注工具Labelimg对步骤S1-2获得的数据集进行标注;
S1-4图像预处理:将标注好的数据集划分为训练集、验证集和测试集;
S2:构建基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型
S2-1构建改进YOLOv5模型
所述改进YOLOv5模型具体由输入端、主干网络Backbone、颈部Neck和输出端四个部分组成;
S2-2主干网络引入卷积注意力模块CBAM
在步骤2-1的基础上,在所述改进YOLOv5模型的主干网络Backbone提取网络的卷积层中引入CBAM卷积注意力模块;
所述CBAM卷积注意力模块包括两个子模块,他们分别是通道注意力模块和空间注意力模块。
S2-2.1通道注意力特征图Mc的确定
所述通道注意力模块首先将输入的F∈RC×H×W特征图,分别进行平均池化和最大池化两种池化操作,得到两种特征信息
Figure BDA0003832021840000031
Figure BDA0003832021840000032
其中,C为特征图通道数,H为高度,W为宽度;
再将得到的所述两种特征信息
Figure BDA0003832021840000033
Figure BDA0003832021840000034
输入至两个全连接层MLP中,之后进行Sigmoid激活函数运算,最终得到通道注意力特征图Mc;
其计算公式如式下:
Figure BDA0003832021840000035
式中:F表示输入特征图,
Figure BDA0003832021840000036
代表sigmoid激活函数,MLP代表全连接操作,
Figure BDA0003832021840000037
代表全局平均池化向量,
Figure BDA0003832021840000038
代表全局最大池化向量,W0和W1为两个输入共享权重;
S2-2.2空间注意力特征图Ms的确定
所述的空间注意力模块将所述输入特征图F∈RC×H×W与所述注意力特征图信息Mc的乘积作为输入,然后分别进行平均池化和最大池化操作得到两个特征信息
Figure BDA0003832021840000039
Figure BDA00038320218400000310
并将其拼接成特征图;
对所述特征图首先进行卷积核大小为7*7和卷积核个数为1的卷积操作,再进行Sigmoid激活函数运算得到最终的空间注意力特征图Ms,所述空间注意力特征图Ms的计算公式如下:
Figure BDA00038320218400000311
式中:f7×7代表卷积核大小为7×7的卷积运算,
Figure BDA00038320218400000312
代表全局平均池化特征图,
Figure BDA00038320218400000313
代表全局最大池化特征图;
S2-2.2获取最终的注意力特征图
所述CBAM卷积注意力模块将所述通道注意力特征图Mc以及所述空间注意力特征图Ms依次进行通道注意力加权和空间注意力加权,从而得到最终经注意力加权后的特征图F",其计算公式如下:
Figure BDA0003832021840000041
Figure BDA0003832021840000042
式中F为输入特征图,
Figure BDA0003832021840000043
为元素乘法,Mc为通道注意力特性图,F'为经通道注意力机制加权得到特征图,Ms为空间注意力特征图,F"为注意力机制加权得到特征图;
S2-3 Neck网络添加双向特征金字塔网络BiFPN
在S2-2的基础上,在所述改进YOLOv5模型的Neck网络上加入双向特征金字塔网络BiFPN;
所述双向特征金字塔网络BiFPN首先利用跨尺度连接方式,在相同层级的输入和输出之间使用残差连接的方式增加一个连接;
所述双向特征金字塔网络BiFPN再使用加权特征融合方式,通过为每个输入的特征赋予相应的权重统一特征分辨率信息,以此来融合不同分辨率的特征;
完成基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型的构建。
S3:训练和评估构建的基于改进YOLOv5的红外图像笼内死鸡目标检测深
度学习模型;
S3-1设置模型训练参数:将训练参数输入到S2构建的基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型中;
S3-2将步骤1-4预处理后的所述训练集和所述验证集的图像输入到步骤S3-1设置模型训练参数后的改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型中;
采用训练集对所述改进的YOLOv5模型进行训练,通过验证集验证训练的分类效果,得到训练后的网络模型;
S3-3在步骤3-2的基础上,将步骤S1-4预处理后的所述测试集图像输入到改进的YOLOv5模型中,主干网络提取笼内死鸡的特征信息,对特征信息进行加权特征信息融合,获得识别结果;
S3-4根据步骤S3-3的识别结果,对基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型进行评估。
具体的,所述步骤S1-3中所述标注工具Labelimg对图像数据集进行标注后,得到VOC格式的xml文件,所述文件包含死鸡在图像中的位置信息和死鸡类别信息。
具体的,所述步骤S1-4图像预处理中的预处理方法具体包括:随机选取70%的所述红外图像作为训练集,20%的所述红外图像作为验证集,10%的所述红外图像作为测试集;所述的红外图像通过红外热像仪采集。
具体的,所述步骤S3-1中,训练参数设定为:初始学习率0.01,优化器为Adam,权重衰减为0.001,动量参数为0.9,批量大小为16,训练迭代次数epochs为300。
具体的,所述步骤S3-4中,对基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型进行评估,评价指标包括精确率P(Precision)、召回率R(Recall)和平均精度MAP,模型评估公式如下:
Figure BDA0003832021840000051
Figure BDA0003832021840000052
Figure BDA0003832021840000053
其中,TP表示被正确地检测为死鸡的数量,FP表示被错误地检测为死鸡的数量,FN表示图像中死鸡被漏检的数量,C为检测样本类别数量。
具体的,该方法依据的平台为Windows X64,基于PyTorch深度学习框架构建网络模型,训练使用的计算机配置为CPU:Intel Core i7-10700 CPU@2.90GHz,GPU:GeForceRDTX 3070、8.0GB独立显存和16.0GB内存。
与现有技术相比,本发明提供的基于改进YOLOv5模型的红外图像笼内死鸡识别方法具有以下有益效果:
该方法首先在主干网络引入CBAM卷积注意力模块,通过整合通道和空间两方面的注意力信息,使得模型能够弱化无关特征信息而强化死鸡特征信息;其次在Neck网络中添加双向特征金字塔网络BiFPN,进行多尺度特征融合,使得模型能够提取到更深层次的死鸡特征信息,从而使模型在死鸡检测时具有更好的性能。通过引入CBAM卷积注意力模块和添加双向特征金字塔网络BiFPN,进一步提高了模型的特征提取能力和检测精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为YOLOv5网络结构图;
图2为CBAM卷积注意力模块结构图;
图3为双向特征金字塔网络BiFPN结构图;
图4为本发明方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为YOLOv5网络结构图,图2为CBAM卷积注意力模块结构图,图3为双向特征金字塔网络BiFPN结构图,图4为本发明方法的流程图,参照图1-4所示,本发明请求保护一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法,包括以下步骤:
S1:构建数据集
S1-1获取笼内鸡只的红外图像:使用红外热像仪采集笼内鸡只的红外图像;
S1-2图像扩充处理:在步骤1-1的基础上,对得到的鸡只的所述红外图像进行翻转、旋转,并随机调整亮度,采用基本图像处理方法进行图像扩充,得到数据集;
S1-3数据集标注:使用图像标注工具Labelimg对步骤S1-2获得的数据集进行标注;
S1-4图像预处理:将标注好的数据集划分为训练集、验证集和测试集。S2:构建基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型
S2-1构建改进YOLOv5模型
所述改进YOLOv5模型具体由输入端、主干网络Backbone、颈部Neck和输出端四个部分组成,分主要有以下作用;
输入端主要通过Mosaic数据增强、自适应锚框计算和自适应图片缩放三部分对输入的图像进行处理。
Backbone为特征提取网络,主要包括Focus结构、CSP结构和SSP操作。Focus结构主要是对输入的图像进行切片操作,切片后特征图输入通道扩充了4倍,再经过一次卷积操作,得到二倍下采样特征图。CSP结构主要是对特征图进行特征信息提取。SSP操作采用四种不同尺寸的最大池化方式提取不同尺度特征信息。
Neck为特征融合网络,采用FPN和PAN网络结构。利用自上而下与自下而上联合的特征双向融合方式,对提取的特征信息进行融合,然后将特征信息传入到检测层。
输出端作为检测层,采用GIOU作为损失函数,最后输出置信度最高的预测类别,并返回目标位置的边框坐标。
S2-2主干网络引入卷积注意力模块CBAM
在步骤2-1的基础上,在所述改进YOLOv5模型的主干网络Backbone提取网络的卷积层中引入CBAM卷积注意力模块;
所述CBAM卷积注意力模块包括两个子模块,他们分别是通道注意力模块和空间注意力模块。
S2-2.1通道注意力特征图Mc的确定
所述通道注意力模块首先将输入的F∈RC×H×W特征图,分别进行平均池化和最大池化两种池化操作,得到两种特征信息
Figure BDA0003832021840000081
Figure BDA0003832021840000082
其中,C为特征图通道数,H为高度,W为宽度;
再将得到的所述两种特征信息
Figure BDA0003832021840000083
Figure BDA0003832021840000084
输入至两个全连接层MLP中,之后进行Sigmoid激活函数运算,最终得到通道注意力特征图Mc;
其计算公式如式下:
Figure BDA0003832021840000085
式中:F表示输入特征图,
Figure BDA0003832021840000086
代表sigmoid激活函数,MLP代表全连接操作,
Figure BDA0003832021840000087
代表全局平均池化向量,
Figure BDA0003832021840000088
代表全局最大池化向量,W0和W1为两个输入共享权重;
S2-2.2空间注意力特征图Ms的确定
所述的空间注意力模块将所述输入特征图F∈RC×H×W与所述注意力特征图信息Mc的乘积作为输入,然后分别进行平均池化和最大池化操作得到两个特征信息
Figure BDA0003832021840000089
Figure BDA00038320218400000810
并将其拼接成特征图;
对所述特征图首先进行卷积核大小为7*7和卷积核个数为1的卷积操作,再进行Sigmoid激活函数运算得到最终的空间注意力特征图Ms,所述空间注意力特征图Ms的计算公式如下:
Figure BDA00038320218400000811
式中:f7×7代表卷积核大小为7×7的卷积运算,
Figure BDA00038320218400000812
代表全局平均池化特征图,
Figure BDA00038320218400000813
代表全局最大池化特征图;
S2-2.2获取最终的注意力特征图
所述CBAM卷积注意力模块将所述通道注意力特征图Mc以及所述空间注意力特征图Ms依次进行通道注意力加权和空间注意力加权,从而得到最终经注意力加权后的特征图F",其计算公式如下:
Figure BDA0003832021840000091
Figure BDA0003832021840000092
式中F为输入特征图,
Figure BDA0003832021840000093
为元素乘法,Mc为通道注意力特性图,F'为经通道注意力机制加权得到特征图,Ms为空间注意力特征图,F"为注意力机制加权得到特征图;
在所述改进YOLOv5网络模型中,所述主干网络Backbone为特征提取网络,将所述CBAM卷积注意力模块引入到所述主干网络Backbone中,所述CBAM模块通过整合通道和空间两方面的注意力信息,使得神经网络能够弱化无关特征信息而强化死鸡特征信息,从而达到提升目标检测精度的目的;
S2-3 Neck网络添加双向特征金字塔网络BiFPN
在特征融合过程中,所述改进YOLOv5模型的所述Neck模块采用PANet特征融合方式,通过自上而下与自下而上两条路径对提取的特征进行双向融合,但PANet只是单一的对特征信息进行相加,没有考虑因不同的输入特征图分辨率不同,导致输出特征图贡献不等的问题。
在步骤S2-2的基础上,在所述改进YOLOv5模型的Neck模块上加入双向特征金字塔网络BiFPN;
所述双向特征金字塔网络BiFPN首先利用跨尺度连接方式,在相同层级的输入和输出之间使用残差连接的方式增加一个连接;
所述双向特征金字塔网络BiFPN再使用加权特征融合方式,通过为每个输入的特征赋予相应的权重统一特征分辨率信息,以此来融合不同分辨率的特征;
在所述改进YOLOv5网络模型中,传入特征图经Backbone主干特征提取网络提取特征后,需要经过Neck颈部特征融合网络对提取的特征进行融合。在Neck网络中添加双向特征金字塔网络BiFPN进行加权特征融合,从而使模型在死鸡检测时具有更好的性能。
至此完成基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型的构建。
S3:训练和评估构建的基于改进YOLOv5的红外图像笼内死鸡目标检测深
度学习模型;
S3-1设置模型训练参数:将训练参数输入到S2构建的基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型中;
S3-2将步骤S1-4预处理后的所述训练集和所述验证集的图像输入到步骤3-1设置模型训练参数后的改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型中;
采用训练集对所述改进的YOLOv5模型进行训练,通过验证集验证训练的分类效果,得到训练后的网络模型;
S3-3在步骤S3-2的基础上,将步骤1-4预处理后的所述测试集图像输入到改进的YOLOv5模型中,主干网络提取笼内死鸡的特征信息,对特征信息进行加权特征信息融合,获得识别结果;
S3-4根据步骤S3-3的识别结果,对基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型进行评估。
具体的,所述步骤S1-3中所述标注工具Labelimg对图像数据集进行标注后,得到VOC格式的xml文件,所述文件包含死鸡在图像中的位置信息和死鸡类别信息。
具体的,所述S1-4图像预处理中的预处理方法具体包括:随机选取70%的所述红外图像作为训练集,20%的所述红外图像作为验证集,10%的所述红外图像作为测试集;所述的红外图像通过红外热像仪等采集。
具体的,所述步骤S3-1中,学习参数设定为:初始学习率0.01,优化器为Adam,权重衰减为0.001,动量参数为0.9,批量大小为16,训练迭代次数epochs为300。
具体的,所述步骤S3-4中,对基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型进行评估,评价指标包括精确率P(Precision)、召回率R(Recall)和平均精度MAP,模型评估公式如下:
Figure BDA0003832021840000111
Figure BDA0003832021840000112
Figure BDA0003832021840000113
其中,TP表示被正确地检测为死鸡的数量,FP表示被错误地检测为死鸡的数量,FN表示图像中死鸡被漏检的数量,C为检测样本类别数量。
精确率P反映网络模型误检笼内死鸡的情况,召回率R反映网络模型漏检笼内死鸡的情况,mAP值表示所有类别的平均精度值求平均值。精确率P、召回率R和mAP值越高,代表笼内死鸡检测精度效果越好。
实验在Windows X64的平台下完成,基于PyTorch深度学习框架构建网络模型,训练使用的计算机配置为CPU:Intel Core i7-10700 CPU@2.90GHz,GPU:GeForce RDTX3070、8.0GB独立显存和16.0GB内存。
为了验证本发明对笼内死鸡的检测效果,在相同的测试集下,对YOLOv5模型和改进YOLOv5模型进行模型性能评估,结果如表1所示。
表1模型性能评估结果
Figure BDA0003832021840000114
从表1可知,改进的YOLOv5模型相较于YOLOv5模型,降低了笼内死鸡误检、漏检的情况,精确率P、召回率R和平均精度mAP均有所提升。精确率P、召回率R分别达到了96.4%和91.2%,进一步表明对笼内死鸡的识别问题,改进的YOLOv5模型具有更好的检测性能。在实际应用中,可以将模型部署在嵌入式端等设备中,实现移动端实时检测笼内死鸡状况。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (6)

1.一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法,其特征在于:包括以下步骤:
S1:构建数据集
S1-1获取笼内鸡只的红外图像:使用红外热像仪采集笼内鸡只的红外图像;
S1-2图像扩充处理:在步骤1-1的基础上,对得到的鸡只的所述红外图像进行翻转、旋转,并随机调整亮度,采用基本图像处理方法进行图像扩充,得到数据集;
S1-3数据集标注:使用图像标注工具Labelimg对步骤S1-2获得的数据集进行标注;
S1-4图像预处理:将标注好的数据集划分为训练集、验证集和测试集;
S2:构建基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型
S2-1构建改进YOLOv5模型
所述改进YOLOv5模型具体由输入端、主干网络Backbone、颈部Neck和输出端四个部分组成;
S2-2主干网络引入卷积注意力模块CBAM
在步骤2-1的基础上,在所述改进YOLOv5模型的主干网络Backbone提取网络的卷积层中引入CBAM卷积注意力模块;
所述CBAM卷积注意力模块包括两个子模块,他们分别是通道注意力模块和空间注意力模块。
S2-2.1通道注意力特征图Mc的确定
所述通道注意力模块首先将输入的F∈RC×H×W特征图,分别进行平均池化和最大池化两种池化操作,得到两种特征信息
Figure FDA0003832021830000011
Figure FDA0003832021830000012
其中,C为特征图通道数,H为高度,W为宽度;
再将得到的所述两种特征信息
Figure FDA0003832021830000013
Figure FDA0003832021830000014
输入至两个全连接层MLP中,之后进行Sigmoid激活函数运算,最终得到通道注意力特征图Mc;
其计算公式如式下:
Figure FDA0003832021830000021
式中:F表示输入特征图,
Figure FDA0003832021830000022
代表sigmoid激活函数,MLP代表全连接操作,
Figure FDA0003832021830000023
代表全局平均池化向量,
Figure FDA0003832021830000024
代表全局最大池化向量,W0和W1为两个输入共享权重;
S2-2.2空间注意力特征图Ms的确定
所述的空间注意力模块将所述输入特征图F∈RC×H×W与所述注意力特征图信息Mc的乘积作为输入,然后分别进行平均池化和最大池化操作得到两个特征信息
Figure FDA0003832021830000025
Figure FDA0003832021830000026
并将其拼接成特征图;
对所述特征图首先进行卷积核大小为7*7和卷积核个数为1的卷积操作,再进行Sigmoid激活函数运算得到最终的空间注意力特征图Ms,所述空间注意力特征图Ms的计算公式如下:
Figure FDA0003832021830000027
式中:f7×7代表卷积核大小为7×7的卷积运算,
Figure FDA0003832021830000028
代表全局平均池化特征图,
Figure FDA0003832021830000029
代表全局最大池化特征图;
S2-2.2获取最终的注意力特征图
所述CBAM卷积注意力模块将所述通道注意力特征图Mc以及所述空间注意力特征图Ms依次进行通道注意力加权和空间注意力加权,从而得到最终经注意力加权后的特征图F",其计算公式如下:
Figure FDA00038320218300000210
Figure FDA00038320218300000211
式中F为输入特征图,
Figure FDA00038320218300000212
为元素乘法,Mc为通道注意力特性图,F'为经通道注意力机制加权得到特征图,Ms为空间注意力特征图,F"为注意力机制加权得到特征图;
S2-3 Neck网络添加双向特征金字塔网络BiFPN
在S2-2的基础上,在所述改进YOLOv5模型的Neck网络上加入双向特征金字塔网络BiFPN;
所述双向特征金字塔网络BiFPN首先利用跨尺度连接方式,在相同层级的输入和输出之间使用残差连接的方式增加一个连接;
所述双向特征金字塔网络BiFPN再使用加权特征融合方式,通过为每个输入的特征赋予相应的权重统一特征分辨率信息,以此来融合不同分辨率的特征;
完成基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型的构建;
S3:训练和评估构建的基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型;
S3-1设置模型训练参数:将训练参数输入到S2构建的基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型中;
S3-2将步骤S1-4预处理后的所述训练集和所述验证集的图像输入到步骤S3-1设置模型训练参数后的基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型中;
采用训练集对所述改进的YOLOv5模型进行训练,通过验证集验证训练的分类效果,得到训练后的网络模型;
S3-3在步骤S3-2的基础上,将步骤S1-4预处理后的所述测试集图像输入到改进的YOLOv5模型中,主干网络提取笼内死鸡的特征信息,对特征信息进行加权特征信息融合,获得识别结果;
S3-4根据步骤3-3的识别结果,对基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型进行评估。
2.根据权利要求1所述的基于改进YOLOv5模型的红外图像笼内死鸡识别方法,其特征在于:所述步骤S1-3中所述标注工具Labelimg对图像数据集进行标注后,得到VOC格式的xml文件,所述文件包含死鸡在图像中的位置信息和死鸡类别信息。
3.根据权利要求1所述的基于改进YOLOv5模型的红外图像笼内死鸡识别方法,其特征在于:所述步骤S1-4图像预处理中的预处理方法具体包括:随机选取70%的所述红外图像作为训练集,20%的所述红外图像作为验证集,10%的所述红外图像作为测试集;所述的红外图像通过红外热像仪采集。
4.根据权利要求1所述的基于改进YOLOv5模型的红外图像笼内死鸡识别方法,其特征在于:所述步骤S3-1中,训练参数设定为:初始学习率0.01,优化器为Adam,权重衰减为0.001,动量参数为0.9,批量大小为16,训练迭代次数epochs为300。
5.根据权利要求1所述的基于改进YOLOv5模型的红外图像笼内死鸡识别方法,其特征在于:所述步骤S3-4中,对基于改进YOLOv5的红外图像笼内死鸡目标检测深度学习模型进行评估,评价指标包括精确率P(Precision)、召回率R(Recall)和平均精度MAP,模型评估公式如下:
精确率
Figure FDA0003832021830000041
召回率
Figure FDA0003832021830000042
平均精度均值
Figure FDA0003832021830000043
其中,TP表示被正确地检测为死鸡的数量,FP表示被错误地检测为死鸡的数量,FN表示图像中死鸡被漏检的数量,C为检测样本类别数量。
6.根据权利要求1-5任一项所述的基于改进YOLOv5模型的红外图像笼内死鸡识别方法,其特征在于:该方法依据的平台为Windows X64,基于PyTorch深度学习框架构建网络模型,训练使用的计算机配置为CPU:Intel Core i7-10700 CPU@2.90GHz,GPU:GeForce RDTX3070、8.0GB独立显存和16.0GB内存。
CN202211078547.4A 2022-09-05 2022-09-05 一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法 Pending CN115527234A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211078547.4A CN115527234A (zh) 2022-09-05 2022-09-05 一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211078547.4A CN115527234A (zh) 2022-09-05 2022-09-05 一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法

Publications (1)

Publication Number Publication Date
CN115527234A true CN115527234A (zh) 2022-12-27

Family

ID=84696765

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211078547.4A Pending CN115527234A (zh) 2022-09-05 2022-09-05 一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法

Country Status (1)

Country Link
CN (1) CN115527234A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116310713A (zh) * 2023-02-16 2023-06-23 嘉洋智慧安全科技(北京)股份有限公司 红外图像识别方法、装置、电子设备及存储介质
CN116681962A (zh) * 2023-05-05 2023-09-01 江苏宏源电气有限责任公司 基于改进YOLOv5的电力设备热图像检测方法及系统
CN116778227A (zh) * 2023-05-12 2023-09-19 昆明理工大学 基于红外图像与可见光图像的目标检测方法、系统及设备
CN117975040A (zh) * 2024-03-28 2024-05-03 南昌工程学院 基于改进YOLOv5的GIS红外图像识别系统与方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116310713A (zh) * 2023-02-16 2023-06-23 嘉洋智慧安全科技(北京)股份有限公司 红外图像识别方法、装置、电子设备及存储介质
CN116310713B (zh) * 2023-02-16 2024-03-19 嘉洋智慧安全科技(北京)股份有限公司 红外图像识别方法、装置、电子设备及存储介质
CN116681962A (zh) * 2023-05-05 2023-09-01 江苏宏源电气有限责任公司 基于改进YOLOv5的电力设备热图像检测方法及系统
CN116778227A (zh) * 2023-05-12 2023-09-19 昆明理工大学 基于红外图像与可见光图像的目标检测方法、系统及设备
CN116778227B (zh) * 2023-05-12 2024-05-10 昆明理工大学 基于红外图像与可见光图像的目标检测方法、系统及设备
CN117975040A (zh) * 2024-03-28 2024-05-03 南昌工程学院 基于改进YOLOv5的GIS红外图像识别系统与方法

Similar Documents

Publication Publication Date Title
CN110598736B (zh) 一种电力设备红外图像故障定位、识别与预测方法
CN115527234A (zh) 一种基于改进YOLOv5模型的红外图像笼内死鸡识别方法
CN111259786B (zh) 一种基于视频的外观和运动信息同步增强的行人重识别方法
CN113705478B (zh) 一种基于改进YOLOv5的红树林单木目标检测方法
CN111783576B (zh) 基于改进型YOLOv3网络和特征融合的行人重识别方法
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
CN111259850A (zh) 一种融合随机批掩膜和多尺度表征学习的行人重识别方法
CN109166094A (zh) 一种基于深度学习的绝缘子故障定位识别方法
CN108805070A (zh) 一种基于嵌入式终端的深度学习行人检测方法
CN106295124A (zh) 利用多种图像检测技术综合分析基因子图相似概率量的方法
CN112329771B (zh) 一种基于深度学习的建筑材料样本识别方法
CN113822185A (zh) 一种群养生猪日常行为检测方法
CN112949510A (zh) 基于Faster R-CNN热红外影像人物探测方法
CN112132157A (zh) 一种基于树莓派的步态人脸融合识别方法
CN113706579A (zh) 一种基于工厂化养殖的对虾多目标跟踪系统及方法
CN112084860A (zh) 目标对象检测、火力发电厂检测方法和装置
CN111339967A (zh) 一种基于多视域图卷积网络的行人检测方法
CN116205905B (zh) 基于移动端的配电网施工安全及质量图像检测方法及系统
CN117333948A (zh) 一种融合时空注意力机制的端到端多目标肉鸡行为识别方法
CN113947780B (zh) 一种基于改进卷积神经网络的梅花鹿面部识别方法
CN116912670A (zh) 基于改进yolo模型的深海鱼类识别方法
CN113658223B (zh) 一种基于深度学习的多行人检测与跟踪方法及系统
CN115100428A (zh) 一种利用上下文感知的目标检测方法
CN115273131A (zh) 基于双通路特征融合的动物识别方法
CN114494850A (zh) 一种村庄无人居住院落智能识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination