CN116469034A - 一种基于改进的YOLOv7模型的猪只监测计数方法 - Google Patents

一种基于改进的YOLOv7模型的猪只监测计数方法 Download PDF

Info

Publication number
CN116469034A
CN116469034A CN202310406673.6A CN202310406673A CN116469034A CN 116469034 A CN116469034 A CN 116469034A CN 202310406673 A CN202310406673 A CN 202310406673A CN 116469034 A CN116469034 A CN 116469034A
Authority
CN
China
Prior art keywords
image
pig
convolution
yolov7
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310406673.6A
Other languages
English (en)
Inventor
马钦
林华浦
彭佳辉
张凯
孙一杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Agricultural University
Original Assignee
China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Agricultural University filed Critical China Agricultural University
Priority to CN202310406673.6A priority Critical patent/CN116469034A/zh
Publication of CN116469034A publication Critical patent/CN116469034A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M1/00Design features of general application
    • G06M1/27Design features of general application for representing the result of count in the form of electric signals, e.g. by sensing markings on the counter drum
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进的YOLOv7模型的猪只监测计数方法,包括以下步骤:S1、在猪场布置若干个摄像头进行视频监控;S2、获取步骤S1中摄像头拍摄的视频监控图像输入YOLOv7网络;S3、特征提取:经过特征提取骨干网络对步骤S2获得的转化后猪只图像进行边缘、纹理、颜色特征的提取,在特征提取骨干网络后插入CA注意力机制;S4、特征融合:将步骤S3提取出不同层级的猪只特征图进行特征间的优势互补,在特征融合后添加小目标检测层;S5、特征检测:利用猪只特征信息在图像中检测出猪只的位置信息;S6、猪只计数。本发明采用上述一种基于改进的YOLOv7模型的猪只监测计数方法,解决了现有技术中存在的遮挡问题和小目标检测问题,实现了更高精度的猪只计数。

Description

一种基于改进的YOLOv7模型的猪只监测计数方法
技术领域
本发明涉及计算机视觉技术领域,特别是涉及一种基于改进的YOLOv7模型的猪只监测计数方法。
背景技术
猪只计数是我国大规模畜牧业生产管理和资产管理中的一项重要工作。准确的猪只计数可以改善猪的饲养、猪舍建设等管理,提高猪场的生产效益和经济效益。然而,目前缺乏可靠、准确的目标追踪计数方法。现阶段,养殖管理人员主要依靠传统的人工计数方法获得猪只个数信息,但这种方法管理成本高,并且,工作内容繁琐。
现有的猪只计数方法有很多,如基于密度图的目标检测、单阶段的目标检测、两阶段的目标检测。但是这些检测方法都有以下情况,如基于密度图的目标检测无法处理检测物体的重叠以及尺度的变化的问题;单阶段的目标检测对于小目标的检测有困难;两阶段的目标检测检测速度慢,训练时间过长,误报率较高。
对上述不同猪只计数方法检测效果不足的困扰,主要在于以下两方面:
(1)遮挡问题:在目标检测中,遮挡包括两种,一种是猪只之间的互相遮挡,另一种则是猪只被圈栏物体的遮挡。
对于猪只之间遮挡,由于互相遮挡的两个目标类别一样,所以特征相近,目标检测算法无法准确定位,因此在阈值设定中过大过小都会影响检测结果。而对于其它物体的遮挡,目标检测算法无法区分猪只被遮挡住的特征。
(2)小目标检测问题:对图像进行特征分类的前提是特征能够覆盖整幅图像,这对于小目标的物体来说是比较困难的。
当前单阶段目标检测中YOLO系列最新的网络结构YOLOv7虽然检测精度很高,但是其骨干网络是自上到下的方式,深层与浅层特征图在语义性与空间性上没有做到更好的均衡。而小目标存在于浅层的语义特征,在目标检测过程中难以挖掘小目标特征信息。
发明内容
本发明的目的是提供一种基于改进的YOLOv7模型的猪只监测计数方法,解决了现有技术中存在的遮挡问题和小目标检测问题。
为实现上述目的,本发明提供了一种基于改进的YOLOv7模型的猪只监测计数方法,包括以下步骤:
S1、在猪场布置若干个摄像头进行视频监控;
S2、获取步骤S1中摄像头拍摄的视频监控图像,将视频图像转化成640*640的图像输入YOLOv7网络;
S3、特征提取:经过特征提取骨干网络对步骤S2获得的转化后猪只图像进行边缘、纹理、颜色特征的提取,将猪只图像转换为机器学习的图像数据,在特征提取骨干网络后插入CA注意力机制(Coordinate注意力机制-协调注意力机制);
S4、特征融合:将步骤S3提取出不同层级的猪只特征图进行特征间的优势互补,获得准确的识别结果,在特征融合后添加小目标检测层;
S5、特征检测:将猪只特征信息与猪只信息相匹配,在图像中检测出猪只的位置信息;
S6、猪只计数:对检测数据分析,统计当前图像猪只总数并展示。
优选的,步骤S3中,特征提取骨干网络包括ELAN模块(聚合卷积)和MP模块(最大池化卷积),ELAN模块由多个卷积模块融合而成,MP模块包括三种特征提取。
优选的,MP模块的特征提取过程具体如下:
(1)通过最大池化与卷积结合将图像尺寸变为与经过池化相同的特征图像尺寸;
(2)通过平均池化与卷积结合将图像尺寸变为与经过池化相同的特征图像尺寸;
(3)在经过四次卷积后,将第二次与第四次卷积先进行信息融合,再与另外两种网络结构融合,最后将三种提取特征的方式融合,获得图像信息。
优选的,步骤(1)中,最大池化与卷积结合过程为:图像先经过最大池化层后连接一个卷积核为1、步长为1的卷积,此时图像尺寸变为四分之一,通道数变为一半;再将原图经过卷积核为1、步长为1的卷积并连接一个卷积核为3、步长为2的卷积将图像尺寸变为与经过池化相同的特征图像尺寸。
优选的,步骤(2)中,平均池化与卷积结合过程为:图像先经过平均池化层后连接一个卷积核为1、步长为1的卷积,而此时图像尺寸变为四分之一,通道数变为一半;再将原图经过卷积核为1、步长为1的卷积并连接一个卷积核为3,步长为2的卷积将图像尺寸变为与经过池化相同的特征图像尺寸。
优选的,步骤S3中,CA注意力机制首先对于原图像进行两种处理,一方面将原图像特征保存以用来分配权重;另一方面将原图分别经过平均池化压缩宽度和压缩高度,再将两者提取的信息结合;之后经过卷积压缩通道数获取精确位置信息,最后经过激活函数FRELU。
因此,本发明的一种基于改进的YOLOv7模型的猪只监测计数方法,其技术效果如下:
(1)在网络结构中的改进MP模块,通过残差思想和引入平均池化更好地进行信息融合,随着深度的增加,残差思想可以获取更高的精度,平均池化可以降低邻域大小受限造成的估计值方差,更多地保留图像的特征信息。
(2)在原网络结构提取深层语义特征后添加了改进的CA注意力机制,突出图像中待检测猪只信息,在原网络结构特征融合过程中添加了对浅层语义特征的提取,有效加强了对远处猪只小目标的检测,即通过添加注意力机制和小目标检测层有效提升了目标检测效果,使得远景的猪只个体也可以被检测到,并且目标重叠与被遮挡问题也有效改善,从而能够高效、精确地预测生猪个体数量,实现了猪只自动计数,解决了人工现场管理猪只群体方法费时费力且主观性强的问题。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1是本发明YOLOv7的流程示意图;
图2是本发明MP模块的示意图;
图3是本发明CA注意力机制的示意图;
图4是本发明YOLOv7模型的结构示意图。
具体实施方式
下面结合实施例,对本发明进一步描述。
实施例
现有技术中的YOLOv7网络
a.首先将猪只数据图像输入网络,经过特征提取骨干网络对猪只图像进行特征的提取,骨干网络的具体过程是图像由一开始的640*640,经过步长为2的卷积逐步降采样缩小尺寸至20*20;
b.随后,提取到的特征经过特征融合处理得到三种不同尺寸的特征,该过程中融合了骨干网络包括80*80之后提取的特征图;
c.最终,融合三种不同尺寸的特征被送入检测头,经过检测之后输出得到结果。
一种基于改进的YOLOv7模型的猪只监测计数方法,具体步骤如下:
S1、在猪场布置若干个摄像头进行视频监控;
S2、获取步骤S1摄像头拍摄的猪只群体监控视频图像,将视频图像转化成640*640的图像输入YOLOv7网络;
S3、特征提取,经过特征提取骨干网络对步骤S2转化后的猪只图像进行边缘、纹理、颜色特征的提取,将猪只图像转换为用于机器学习的图像数据,在特征提取骨干网络后插入CA注意力机制,用于关注通道间关系和位置。
特征提取骨干网络包括改进ELAN模块和MP模块。
S31、ELAN模块由多个卷积模块融合而成,主要目的在不破坏原有特征信息的基础上提取更多的图像特征。
卷积是指用一个卷积核对一个数字矩阵滑动提取特征的过程。在特征提取骨干网络中,共进行六次卷积。最终将第一次、第二次、第四次和第六次提取得到的图像特征进行特征融合获得特征信息,提高对猪只群体图像边缘、纹理、颜色特征的提取效果,将猪只群体图像转换为机器学习的图像数据。
S32、MP模块是将最大池化与卷积结合后降采样,再输出需要的图像特征通道数。在原YOLOv7网络中,MP模块分为最大池化和卷积两个过程。池化过程是利用某种关系来选取一些数字代表数字矩阵。
本发明中,MP模块包括三种特征提取过程,如图2所示:最大池化与卷积结合将图像尺寸变为与经过池化相同的特征图像尺寸。
a.其中一分支是图像首先经过最大池化层后连接一个卷积核为1、步长为1的卷积,此时图像尺寸变为四分之一,通道数变为一半;再将原图经过卷积核为1、步长为1的卷积,并连接一个卷积核为3、步长为2的卷积,将图像尺寸变为与经过池化相同的特征图像尺寸。
最大池化是提取数字矩阵中规定范围内最大的值来替代该范围。其中,最大池化层和1×1卷积的联合使用,通过选取图像特征的最大值,对图像的边缘和纹理信息进行学习。
b.另一分支则是图像通过连续两次卷积,提取得到了图像更多的特征信息。两分支合并为网络带来了更好的信息融合效果。
c.平均池化与卷积结合将图像尺寸变为与经过池化相同的特征图像尺寸。
图像首先经过平均池化层后连接一个卷积核为1、步长为1的卷积,此时图像尺寸变为四分之一,通道数变为一半;再将原图经过卷积核为1、步长为1的卷积,并连接一个卷积核为3、步长为2的卷积,将图像尺寸变为与经过池化相同的特征图像尺寸。
平均池化可以降低邻域大小受限造成的估计值方差,更多的保留图像的特征信息,通过平均池化综合图像的所有信息,使得与最大池化后的图像融合信息不会过于突出。
通过最大池化层可以过滤图像中较多的噪声和目标处理无关的信息,在之后使用平均池化则可以更好的保护深层特征信息。
d.经过四次卷积后,将第二次与第四次卷积先进行信息融合,再与另外两种网络结构融合。
经过更多层次的特征提取过程获得更深的信息,并通过融合之前的特征,保证图像的相关性。最后将三种提取特征的方式融合,获得图像信息。
S33、在特征提取骨干网络后插入CA注意力机制,CA注意力在关注通道间关系的基础上也关注位置信息。
将注意力机制与神经网络结合,有效提高了实验精度。在本发明的图像检测中可以调整特征信息的权重,更突出需要的图像信息,忽略不需要的多余信息。
S34、本发明对MP模块进行改进,通过残差思想和引入平均池化可以更好的进行信息融合,更多的保留图像的特征信息,获得更好的图像信息。
如图3所示为CA注意力机制。
a.首先对于原图像进行两种处理,一方面将原图像特征保存以用来分配权重。
b.另一方面将原图分别经过平均池化压缩宽度和压缩高度,再将两者提取的信息结合;之后经过卷积压缩通道数获取精确位置信息。
c.最后经过激活函数FRELU,如此,解决了激活函数中的空间不敏感问题。然后,通过获取的关系对原图进行权重分配,使得图像特征通道关系与图像本身特征的位置更有侧重点。
S4、特征融合,提取出的猪只图像特征进行特征间的优势互补,获得准确的识别结果。
在特征融合过程中依次添加上采样、第一个ELAN、MP、第二个ELAN模块。在经过SPPCSPC后的第二个ELAN模块后,继续对特征图进行上采样等处理,上采样即是放大图像。继续添加ELAN模块与上采样层使得特征图继续扩大,同时在第三次上采样层时,将获取到的大小为160*160的特征图与骨干网络中最初的ELAN模块特征图进行特征融合,以此获取更浅层的语义信息进行特征融合。
S5、在特征融合后添加小目标检测层。
S6、特征检测,将猪只特征信息与猪只信息相匹配,在图像中检测出猪只的位置信息。
a.如图3所示,改进的MP结构位于特征提取网络的深层提取部分,而在深层特征经过SPPCSPC多次运用最大池化,尽可能多的去提取融合高层次的语义特征后运用改进的CA注意力再次加强提取的特征信息。
b.之后在特征融合过程中依次添加上采样、ELAN、MP、ELAN模块。
c.通过这些模块选取浅层语义特征进入特征融合过程中,并将该语义信息通过RepConv模块送入检测头,与原本的三种尺度特征结合完成检测。
S7、猪只计数,对检测数据分析,统计当前图像猪只总数并展示。
试验验证
综上所述,本发明采用上述一种基于改进的YOLOv7模型的猪只监测计数方法,解决了现有技术中存在的遮挡问题和小目标检测问题。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。

Claims (6)

1.一种基于改进的YOLOv7模型的猪只监测计数方法,其特征在于,具体步骤如下:
S1、在猪场布置若干个摄像头进行视频监控;
S2、获取步骤S1中摄像头拍摄的视频监控图像,将视频图像转化成640*640的图像输入YOLOv7网络;
S3、特征提取:经过特征提取骨干网络对步骤S2获得的转化后猪只图像进行边缘、纹理、颜色特征的提取,将猪只图像转换为机器学习的图像数据,在特征提取骨干网络后插入CA注意力机制;
S4、特征融合:将步骤S3提取出不同层级的猪只特征图进行特征间的优势互补,获得准确的识别结果,在特征融合后添加小目标检测层;
S5、特征检测:将猪只特征信息与猪只信息相匹配,在图像中检测出猪只的位置信息;
S6、猪只计数:对检测数据分析,统计当前图像猪只总数并展示。
2.根据权利要求1所述的一种基于改进的YOLOv7模型的猪只监测计数方法,其特征在于:步骤S3中,特征提取骨干网络包括ELAN模块和MP模块,ELAN模块由多个卷积模块融合而成,MP模块包括三种特征提取。
3.根据权利要求2所述的一种基于改进的YOLOv7模型的猪只监测计数方法,其特征在于,MP模块的特征提取过程具体如下:
(1)通过最大池化与卷积结合将图像尺寸变为与经过池化相同的特征图像尺寸;
(2)通过平均池化与卷积结合将图像尺寸变为与经过池化相同的特征图像尺寸;
(3)在经过四次卷积后,将第二次与第四次卷积先进行信息融合,再与另外两种网络结构融合,最后将三种提取特征的方式融合,获得图像信息。
4.根据权利要求3所述的一种基于改进的YOLOv7模型的猪只监测计数方法,其特征在于:步骤(1)中,最大池化与卷积结合过程为:图像先经过最大池化层后连接一个卷积核为1、步长为1的卷积,此时图像尺寸变为四分之一,通道数变为一半;再将原图经过卷积核为1、步长为1的卷积并连接一个卷积核为3、步长为2的卷积将图像尺寸变为与经过池化相同的特征图像尺寸。
5.根据权利要求3所述的一种基于改进的YOLOv7模型的猪只监测计数方法,其特征在于:步骤(2)中,平均池化与卷积结合过程为:图像先经过平均池化层后连接一个卷积核为1、步长为1的卷积,而此时图像尺寸变为四分之一,通道数变为一半;再将原图经过卷积核为1、步长为1的卷积并连接一个卷积核为3,步长为2的卷积将图像尺寸变为与经过池化相同的特征图像尺寸。
6.根据权利要求1所述的一种基于改进的YOLOv7模型的猪只监测计数方法,其特征在于:步骤S3中,CA注意力机制首先对于原图像进行两种处理,一方面将原图像特征保存以用来分配权重;另一方面将原图分别经过平均池化压缩宽度和压缩高度,再将两者提取的信息结合;之后经过卷积压缩通道数获取精确位置信息,最后经过激活函数FRELU。
CN202310406673.6A 2023-04-17 2023-04-17 一种基于改进的YOLOv7模型的猪只监测计数方法 Pending CN116469034A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310406673.6A CN116469034A (zh) 2023-04-17 2023-04-17 一种基于改进的YOLOv7模型的猪只监测计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310406673.6A CN116469034A (zh) 2023-04-17 2023-04-17 一种基于改进的YOLOv7模型的猪只监测计数方法

Publications (1)

Publication Number Publication Date
CN116469034A true CN116469034A (zh) 2023-07-21

Family

ID=87183783

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310406673.6A Pending CN116469034A (zh) 2023-04-17 2023-04-17 一种基于改进的YOLOv7模型的猪只监测计数方法

Country Status (1)

Country Link
CN (1) CN116469034A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114639042A (zh) * 2022-03-17 2022-06-17 哈尔滨理工大学 基于改进CenterNet骨干网络的视频目标检测算法
CN115063573A (zh) * 2022-06-14 2022-09-16 湖北工业大学 一种基于注意力机制的多尺度目标检测方法
CN115565153A (zh) * 2022-09-21 2023-01-03 河南科技大学 一种改进yolov7的无人驾驶拖拉机田间障碍物识别方法
CN115761568A (zh) * 2022-10-19 2023-03-07 安徽大学 一种基于YOLOv7网络和Deepsort网络的猕猴检测方法
CN115880558A (zh) * 2023-03-03 2023-03-31 北京市农林科学院信息技术研究中心 农事行为检测方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114639042A (zh) * 2022-03-17 2022-06-17 哈尔滨理工大学 基于改进CenterNet骨干网络的视频目标检测算法
CN115063573A (zh) * 2022-06-14 2022-09-16 湖北工业大学 一种基于注意力机制的多尺度目标检测方法
CN115565153A (zh) * 2022-09-21 2023-01-03 河南科技大学 一种改进yolov7的无人驾驶拖拉机田间障碍物识别方法
CN115761568A (zh) * 2022-10-19 2023-03-07 安徽大学 一种基于YOLOv7网络和Deepsort网络的猕猴检测方法
CN115880558A (zh) * 2023-03-03 2023-03-31 北京市农林科学院信息技术研究中心 农事行为检测方法、装置、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴兴辉 等: "改进YOLOv7算法下的监控水域环境人员识别研究", 《电子测量与仪器学报》, pages 1 *
杨秋妹 等: "基于改进YOLOv5n的猪只盘点算法", 《农业机械学报》, vol. 54, no. 1, pages 1 *

Similar Documents

Publication Publication Date Title
CN111223088B (zh) 一种基于深层卷积神经网络的铸件表面缺陷识别方法
CN108960245B (zh) 轮胎模具字符的检测与识别方法、装置、设备及存储介质
CN111178197B (zh) 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法
CN109684922B (zh) 一种基于卷积神经网络的多模型对成品菜的识别方法
CN110956094A (zh) 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN112598713A (zh) 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法
CN108711148B (zh) 一种基于深度学习的轮胎缺陷智能检测方法
CN109902564B (zh) 一种基于结构相似性稀疏自编码网络的异常事件检测方法
CN112766195B (zh) 一种电气化铁路弓网燃弧视觉检测方法
CN109711389B (zh) 一种基于Faster R-CNN和HMM的哺乳母猪姿态转换识别方法
CN111814690B (zh) 一种目标重识别方法、装置和计算机可读存储介质
CN110599459A (zh) 基于深度学习的地下管网风险评估云系统
CN111582126A (zh) 基于多尺度行人轮廓分割融合的行人重识别方法
CN113470076A (zh) 一种平养鸡舍黄羽鸡多目标跟踪方法
CN113435355A (zh) 多目标奶牛身份识别方法及系统
CN114140665A (zh) 一种基于改进YOLOv5的密集小目标检测方法
CN111950357A (zh) 一种基于多特征yolov3的船用水面垃圾快速识别方法
CN116977937A (zh) 一种行人重识别的方法及系统
CN111178405A (zh) 一种融合多种神经网络的相似物体识别方法
CN111881803B (zh) 一种基于改进YOLOv3的畜脸识别方法
CN117475353A (zh) 基于视频的异常烟雾识别方法及系统
Hu et al. Automatic detection of pecan fruits based on Faster RCNN with FPN in orchard
CN109815887B (zh) 一种基于多智能体协作的复杂光照下人脸图像的分类方法
CN116469034A (zh) 一种基于改进的YOLOv7模型的猪只监测计数方法
CN113947780B (zh) 一种基于改进卷积神经网络的梅花鹿面部识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination