CN114022831A - 一种基于双目视觉的牲畜体况监测方法及系统 - Google Patents
一种基于双目视觉的牲畜体况监测方法及系统 Download PDFInfo
- Publication number
- CN114022831A CN114022831A CN202111084243.4A CN202111084243A CN114022831A CN 114022831 A CN114022831 A CN 114022831A CN 202111084243 A CN202111084243 A CN 202111084243A CN 114022831 A CN114022831 A CN 114022831A
- Authority
- CN
- China
- Prior art keywords
- livestock
- tail
- binocular
- body condition
- bbox
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明提供了一种基于双目视觉的牲畜体况监测方法及系统,属于牲畜体况监测技术领域。该方法包括利用摄像头获取牲畜尾部双目图像;根据所述牲畜尾部双目图像对牲畜尾部进行定位处理,并根据所述牲畜尾部双目图像中标定框的大小判断牲畜是否运动至评分的位置,筛选出满足条件的牲畜尾部双目图像;利用分类网络对满足条件的牲畜尾部双目图像进行分类处理,得到牲畜的体况评分。本发明采用人工智能技术将体况评分转化为分类问题,利用深度学习算法具有精度高、可靠性高、实时性强等特点;同时,本发明完全自动化,不需要人工辅助,不需要牲畜的配合,自动捕获关键部位并进行评分。
Description
技术领域
本发明属于牲畜体况监测技术领域,尤其涉及一种基于双目视觉的牲畜体况监测方法及系统。
背景技术
规模化牲畜养殖能够提高畜牧业生产效率和生产水平,是增加牧民收入,提升畜产品安全水平,提升疫病防控能力,实现畜牧业与环境协调发展的有效途径。由于牲畜个体间存在年龄、胎次、泌乳阶段的差异,故牲畜的饲养必需照顾到个体,在采集个体状态信息的基础上,根据个体的不同情况制定针对性的饲养方案。传统的牲畜体况获取多采用人工巡视-记录-分析方式,通过观察牛、羊等牲畜背部的脊椎是否突出、肋骨是否清晰可见、臀部两侧是否凹陷等一系列的特征,来判断牲畜个体是否胖瘦,不仅人力成本高,也不能将生产中的信息及时、准确地反馈给畜牧人员,管理者也无法及时发现生产中的问题而做出相应的调整,落后的牲畜体况信息获取方式严重地制约了规模化养殖生产力的进一步提高。因此,牲畜养殖场信息化受到了国内外研究人员的高度重视,但目前仍有许多问题尚未解决。
为了实现牲畜信息获取的信息化、数字化,提出在牲畜颈部安装无线传感器节点,通过各种传感器获取牲畜的体温、加速度等参数,并监测出牲畜静止、慢走、爬跨等行为。以上研究提高了牲畜信息获取的效率及准确性,但是通常一个传感器节点只能检测单头牲畜,系统硬件成本高,且牲畜养殖环境恶劣,系统维护困难,难以推广应用到整个牧场;采集的信息多为牲畜外部物理参量,难以检测牲畜的高级行为。使用摄像机可以方便快捷地获取并记录动物外在行为,通过开发行为分析软件系统,即可自动化、智能化获取牲畜高级行为,并推断出生理状态,于是,基于视频的动物行为分析系统方面的研究,受到越来越多的研究者高度关注。
机器视觉系统是信息技术领域一个新兴的应用方向。机器视觉系统在不需要人为干预情况下,利用摄像机对目标进行记录和对视频进行分析,实现对场景中目标的定位、识别和跟踪,并在此基础上分析和判断目标的行为,从而既能协助完成日常管理又能在异常情况发生时及时做出反应。如今,越来越多的人开始使用图像处理技术来进行牲畜体况评分,但现有的方案都有不足之处。于牲畜个体状态信息进行采集和评价具有多方面的意义,但现有的技术和采集信息的方法却有很多问题导致方案难以推广,如:人力、硬件成本高,监测信息量有限,系统维护成本高,测量精度较低等等。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于双目视觉的牲畜体况监测方法及系统,解决了上述问题。
为了达到以上目的,本发明采用的技术方案为:
本方案提供一种基于双目视觉的牲畜体况监测方法,包括以下步骤:
S1、利用摄像头获取牲畜尾部双目图像;
S2、根据所述牲畜尾部双目图像对牲畜尾部进行定位处理,并根据所述牲畜尾部双目图像中标定框的大小判断牲畜是否运动至评分的位置,筛选出满足条件的牲畜尾部双目图像;
S3、对满足条件的牲畜尾部双目图像进行分类处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测。
本发明的有益效果是:本发明提出的基于双目视觉的牲畜行为图像获取与体况智能监测方法采用人工智能技术,将体况评分转化为分类问题,利用深度学习算法具有精度高、可靠性高、实时性强等特点;同时,本发明完全自动化,不需要人工辅助,不需要牲畜的配合,自动捕获关键部位并进行评分;另外,由于本发明不需要昂贵的深度相机,只需使用普通的相机,成本大幅降低,非常适合推广使用。
进一步地,所述步骤S1中摄像头为两个,且两个摄像头轴距固定,光轴相互平行,两个摄像头的光心连线与光轴相垂直。
上述进一步方案的有益效果是:本发明利用两个摄像头控制两个摄像头同步拍照,拍摄出来的两幅图像类似于人的左右眼看到的图像,便于的进行后续的视差处理。
再进一步地,所述步骤S2包括以下步骤:
S201、对所述牲畜尾部双目图像进行均值滤波处理;
S202、将经均值滤波处理后的牲畜尾部双目图像进行缩放处理;
S203、将经缩放处理后的牲畜尾部双目图像输入至基于Fast-YOLO的牲畜尾部检测网络,得到1176维向量的牲畜尾部双目图像;
S204、将176维向量的牲畜尾部双目图像均等划分为14×14个cell,每个cell分配6个向量元素,并将6个向量元素转换为预测值其中,p表示预测牲畜尾部条件的概率值,C表示弹性窗口bbox的置信度,x,y表示弹性窗口bbox中心点相对于所述cell边长的归一化值,w,h表示弹性窗口bbox的宽高相对于牲畜尾部双目图像宽高的归一化值,cell表示牲畜尾部双目图像均等划分后的图像块;
S206、判断所述某个弹性窗口bbox的牲畜尾部概率值是否大于预设的阈值,若是,则该弹性窗口bbox存在牲畜尾部,并将该弹性窗口bbox的x,y,w,h转化为输入图像中的实际坐标和长宽,完成对牲畜尾部定位,并进入步骤S207,否则,该弹性窗口bbox不存在牲畜尾部,并返回步骤S1;
S207、根据牲畜尾部定位结果,判断牲畜尾部双目图像的标定框长度是否大于牲畜尾部双目图像总长度的预设阈值且标定框的高度大于牲畜尾部双目图像总宽度的预设阈值,若是,则牲畜运动至评分的位置,并筛选出满足条件的牲畜尾部双目图像,并进入步骤S3,否则,牲畜未运动至评分的位置,结束流程。
上述进一步方案的有益效果是:上述方案通过对牲畜尾部定位的方式来判断牲畜是否运动到适合评分的位置,帮助筛选出满足条件的牲畜尾部双目图像,有利于提高评分的准确度。
再进一步地,所述步骤S203中Fast-YOLO的牲畜尾部检测网络包括依次连接的第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第六卷积层、第七卷积层、第八卷积层以及第九卷积层;
所述第一卷积层的卷积核大小为3×3,其输出特征图的通道数为16;
所述第二卷积层的卷积核大小为3×3,其输出特征图的通道数为32;
所述第三卷积层的卷积核大小为3×3,其输出特征图的通道数为64;
所述第四卷积层的卷积核大小为3×3,其输出特征图的通道数为128;
所述第五卷积层的卷积核大小为3×3,其输出特征图的通道数为256;
所述第六卷积层的卷积核大小为3×3,其输出特征图的通道数为512;
所述第七卷积层的卷积核大小为3×3,其输出特征图的通道数为1024;
所述第八卷积层的卷积核大小为3×3,其输出特征图的通道数为256;
所述第一卷积层、第二卷积层、第三卷积层以及第四卷积层的卷积核移动步长均为2×2。
上述进一步方案的有益效果是:本发明基于Fast-YOLO网络提出了一种牲畜尾部检测网络结构,不使用原Fast-YOLO网络的最后一个最大池化层,避免了特征图尺寸的进一步减小,并将图像划分由7×7提高到14×14,网络分辨率是原Fast-YOLO网络的4倍,有效地提高了检测的精度,同时不同于原Fast-YOLO网络每个cell(每一个cell代表将图像均等划分后,图像的一个小块)预测2个bbox(bbox代表包含多个cell的一小块区域),牲畜尾部检测网络每个cell只预测一个bbox。在同等的训练数据量下,将使对bbox的坐标参数和置信度五个预测参数的调整集中,优化网络的权值参数。
再进一步地,所述S205中某个弹性窗口bbox的牲畜尾部概率值的表达式如下:
pb=C×p
其中,pb表示某个弹性窗口bbox的牲畜尾部概率值,C表示弹性窗口bbox的置信度,p表示预测牲畜尾部条件的概率值。
上述进一步方案的有益效果是:上述方案通过对牲畜尾部定位的方式来判断牲畜是否运动到适合评分的位置,帮助筛选出满足条件的牲畜尾部双目图像,有利于提高评分的准确度。
再进一步地,所述步骤S3包括以下步骤:
S301、利用多尺度滤波器对满足条件的牲畜尾部双目图像进行特征提取;
S302、将提取的特征输入至分类器中进行梯度对数归一化处理,得到分类结果,其中,每个分类的类别表示一个体况分数;
S303、对归分类结果进行校准处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测。
上述进一步方案的有益效果是:实现了对牧场牲畜体况连续实时自动评分的效果,使用神经网络对牲畜体况进行实时、高精度的评分,可以有效减少人力的损耗,并大幅度提高体况评分的精度。
基于上述方法,本发明还提供了一种基于双目视觉的牲畜体况监测系统,包括:
采集模块,用于利用摄像头获取牲畜尾部双目图像;
定位模块,用于根据所述牲畜尾部双目图像对牲畜尾部进行定位处理,并根据所述牲畜尾部双目图像中标定框的大小判断牲畜是否运动至适合评分的位置,筛选出满足条件的牲畜尾部双目图像;
分类模块,用于对满足条件的牲畜尾部双目图像进行分类处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测
本发明的有益效果是:本发明提出的基于双目视觉的牲畜行为图像获取与体况智能监测方法采用人工智能技术,将体况评分转化为分类问题,利用深度学习算法具有精度高、可靠性高、实时性强等特点;同时,本发明完全自动化,不需要人工辅助,不需要牲畜的配合,自动捕获关键部位并进行评分;另外,由于本发明不需要昂贵的深度相机,只需使用普通的相机,成本大幅降低,非常适合推广使用。
附图说明
图1为本发明的方法流程图。
图2为本实施例中两个摄像头的摆放位置示意图。
图3为本实施例中Fast YOLO的架构图。
图4为本实施例中弹性窗口bbox参数坐标示意图。
图5为本实施例中分类网络的结构示意图。
图6为本发明的系统结构示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
实施例1
通过借鉴深度神经网络对图片进行识别并分类的算法,并结合Fast-YOLO图像定位算法,本发明提出了基于双目视觉的牲畜行为图像获取与体况智能监测方法。本方法包括安装在牲畜行走通道上的数据采集装置和数据处理装置,具体而言,使用两个摄像头采集牲畜尾部图像,并输入到数据处理装置。数据处理装置通过视差处理得到牲畜尾部到摄像头的距离,当距离合适时使用深度神经网络处理图像,对图像进行分类,并得到牲畜的体况评分数据。如图1所示,本发明提供了一种基于双目视觉的牲畜体况监测方法,其实现方法如下:
S1、利用摄像头获取牲畜尾部双目图像;
本实施例中,如图2所示,本发明采用两个同型号的摄像头对牲畜尾部数据进行采集,所述的两个摄像头轴距固定、光轴彼此平行,两个摄像头光心连线与光轴相垂直,图2中T表示两个摄像头的轴距,左摄像头的光轴为Orcx left,右摄像头的光轴为Orcx right,两个摄像头光心连线即cx leftcx right,数据处理装置输出控制信号至两个摄像头控制两个摄像头同步拍照,拍摄的两幅图像类似于人的左右眼看到的图像,便于的进行后续的视差处理。
S2、根据所述牲畜尾部双目图像对牲畜尾部进行定位处理,并根据所述牲畜尾部双目图像中标定框的大小判断牲畜是否运动至适合评分的位置,筛选出满足条件的牲畜尾部双目图像,其实现方法如下:
S201、对所述牲畜尾部双目图像进行均值滤波处理;
S202、将经均值滤波处理后的牲畜尾部双目图像进行缩放处理;
S203、将经缩放处理后的牲畜尾部双目图像输入至基于Fast-YOLO的牲畜尾部检测网络,得到1176维向量的牲畜尾部双目图像;
S204、将176维向量的牲畜尾部双目图像均等划分为14×14个cell,每个cell分配6个向量元素,并将6个向量元素转换为预测值其中,p表示预测牲畜尾部条件的概率值,C表示弹性窗口bbox的置信度,x,y表示弹性窗口bbox中心点相对于所述cell边长的归一化值,w,h表示弹性窗口bbox的宽高相对于牲畜尾部双目图像宽高的归一化值,cell表示牲畜尾部双目图像均等划分后的图像块;
S206、判断所述某个弹性窗口bbox的牲畜尾部概率值是否大于预设的阈值,若是,则该弹性窗口bbox存在牲畜尾部,并将该弹性窗口bbox的x,y,w,h转化为输入图像中的实际坐标和长宽,完成对牲畜尾部定位,并进入步骤S207,否则,该弹性窗口bbox不存在牲畜尾部,并返回步骤S1;
S207、根据牲畜尾部定位结果,判断牲畜尾部双目图像的标定框长度是否大于牲畜尾部双目图像总长度的预设阈值且标定框的高度大于牲畜尾部双目图像总宽度的预设阈值,若是,则牲畜运动至评分的位置,并筛选出满足条件的牲畜尾部双目图像,并进入步骤S3,否则,牲畜未运动至评分的位置,结束流程。
本实施例中,使用Fast-YOLO图像定位算法实时对两个摄像头同一时刻采集的图像进行牲畜尾部定位,并根据两幅图像中标定框的大小来判断牲畜是否运动到适合评分的位置。Fast-YOLO网络作为一种目标检测系统,具有很高的检测速度,适合应用于实时环境,与其他同等检测速度的目标检测系统相比,Fast-YOLO具有更好的检测准确率,本发明以Fast-YOLO网络为基础,针对Fast-YOLO网络在牲畜尾部检测领域的局限性和牲畜尾部检测的特点,给出一种基于Fast-YOLO的牲畜尾部检测网络。
本实施例中,如图3所示,Fast-YOLO的牲畜尾部检测网络包括依次连接的第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第六卷积层、第七卷积层、第八卷积层以及第九卷积层;
所述第一卷积层的卷积核大小为3×3,其输出特征图的通道数为16;
所述第二卷积层的卷积核大小为3×3,其输出特征图的通道数为32;
所述第三卷积层的卷积核大小为3×3,其输出特征图的通道数为64;
所述第四卷积层的卷积核大小为3×3,其输出特征图的通道数为128;
所述第五卷积层的卷积核大小为3×3,其输出特征图的通道数为256;
所述第六卷积层的卷积核大小为3×3,其输出特征图的通道数为512;
所述第七卷积层的卷积核大小为3×3,其输出特征图的通道数为1024;
所述第八卷积层的卷积核大小为3×3,其输出特征图的通道数为256;
所述第一卷积层、第二卷积层、第三卷积层以及第四卷积层的卷积核移动步长均为2×2,其中,2×2是在2×2核内求最大值,该核以步长为2划过整个特征图。
本实施例中,如图3所示,Fast-YOLO网络将图像划分为7×7个cell,每个cell预测2个bbox(boundingbox,弹性窗口),并且这2个弹性窗口bbox属于同一种类别。从网络的功能设计而言,每个cell预测的2个弹性窗口bbox是为了对处于该cell内的不同的类别、形状或比例的目标具有各自更好的匹配度,然后选择其中具有最大IOU的弹性窗口bbox作为该cell内目标的窗口,最终完成目标检测任务,实现了对牲畜尾部的定位功能。
本实施例中,首先使用均值滤波预处理的方法,对双目图像做均值滤波预处理,减小双目图像的高斯噪声,提高噪声环境下使用Fast-YOLO算法对双目图像牲畜尾部位置进行检测的准确度;接着将图像缩放为448×448大小后,输入基于Fast-YOLO的牲畜尾部检测网络。牲畜尾部检测网络完成前向传播计算后,输出1176维向量。将图像划分为14×14个cell,1176维度的向量平均分配给图像的14×14个cell,每个cell分配得到6个向量元素,6个向量元素按功能设计转化为如下的预测值:其中参数p用来预测牲畜尾部条件概率值,C表示弹性窗口bbox的置信度,x、y表示弹性窗口bbox中心点相对于所属cell边长的归一化值,w、h表示弹性窗口bbox的宽高相对于图像宽高W、H的归一化值,的取值范围都是(0,1)。弹性窗口bbox坐标参数示意图如图4所示。最后使用预测值后处理和非极大值抑制处理向量,并输出目标检测的结果。其中预测值后处理中获取某个弹性窗口bbox的牲畜尾部概率值pb.获取概率值公式如下所示:
pb=C×p
其中,C表示每个cell的弹性窗口bbox的置信度,p表示该cell的牲畜尾部存在的条件概率值。
本实施例中,将所有cell的弹性窗口bbox的牲畜尾部概率值与设定的阈值作比较,大于阈值的判定该弹性窗口bbox存在牲畜尾部,并将该弹性窗口bbox的x、y、w、h转化为输入图像中的实际坐标和长宽,小于阈值的判定该弹性窗口bbox不存在牲畜尾部,非极大值抑制可以去除重复检测的窗口。
本实施例中,使用牲畜尾部检测网络得到检测后的结果。当牲畜尾部在图像的边缘或显示不完全时,此时处理得到的牲畜尾部距离是不准确的,所以这里需要根据两幅图像中标定框的大小来判断牲畜是否运动到适合评分的位置。若两幅图像标定框的长度均大于图像总长度的三分之一且标定框的高度均大于图像总宽度的四分之一,则视为牲畜运动到合适的评分位置;否则视为牲畜未运动到合适的评分位置,这里的三分之一和四分之一只是实际过程中选用的一个优选参数,以供参考。该参数的选择还与摄像头的布置位置相关,在实际使用时,选择合适的大小,保证每次能够完整的拍摄牲畜尾部图像即可。若牲畜运动到合适的评分位置,则执行下一步;若牲畜未运动到合适的评分位置,则返回步骤S1重新拍摄图像。
本实施例中,通过此尾部检测网络实现对牲畜尾部的定位,从而可以进一步判断采集图像时牲畜是否运动到适合评分的位置,基于Fast-YOLO网络提出了一种牲畜尾部检测网络结构,不使用原Fast-YOLO网络的最后一个最大池化层,避免了特征图尺寸的进一步减小,其余网络层与原Fast-YOLO保持一致,由7×7提高到14×14,网络分辨率是原Fast-YOLO网络的4倍,由于针对牲畜尾部的检测只需要判断一种牲畜尾部类别,并且牲畜尾部具有较为一致的比例和轮廓的特点,不同于原Fast-YOLO网络每个cell预测2个弹性窗口bbox,在本发明给出的基于Fast-YOLO的牲畜尾部检测网络中,每个cell只预测1个弹性窗口bbox,在同等的训练数据量下,将使对弹性窗口bbox的坐标参数和置信度五个预测参数的调整集中,优化网络的权值参数。
S3、对满足条件的牲畜尾部双目图像进行分类处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测,其实现方法如下:
S301、利用多尺度滤波器对满足条件的牲畜尾部双目图像进行特征提取;
S302、将提取的特征输入至分类器中进行梯度对数归一化处理,得到分类结果,其中,每个分类的类别表示一个体况分数;
S303、对归分类结果进行校准处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测。
本实施例中,使用视差法对符合条件的图像进行处理。使用深度神经网络中编码-解码的方式对归一化后的图像矩阵进行矩阵变换和特征提取,使用神经网络进行分类可以看作是一个映射方程F:Rd→RM,其中,d维度的输入向量输入到网络中,M维度的输出向量代表M个分类类别,网络的构建通常使得诸如均方误差(MSE)之类的整体误差度量最小化。分类网络的关键模块如图5所示。首先分别使用1×1,3×3.5,5×5的多尺度滤波器组从多个方面获取图像的纹理、形状等特征信息,然后在卷积层加入残差学习模块,减少信息传递的层数,将图像特征直接提取到网络的更深层,提取到的特征表示为一个向量,向量中的每个值对应着牲畜为某个分数的可能性大小,将提取后的特征输入到softmax分类器中进行梯度对数归一化,经归一化后的向量变为了只有0和1的二进制向量:ej=(0,0,0,...,1,0,0),其中,向量中1所在的位置对应的分数即为该牲畜的体况分数,以此来实现牲畜体况智能监测效果,softmax分类公式如下式所示,最后利用线性回归对分类结果进行校准,得到牲畜的体况评分,其中,使用softmax_crossEntropy_with_logits作为网络的损失函数。
j=1,2,3,...,K
本实施例中,以上所有步骤都是自动完成的,无需人工介入,只需要将牲畜赶到行走通道上,当牲畜一个个的通过行走通道时,数据采集装置和数据处理装置会自动拍摄牲畜尾部照片并进行处理得到该牲畜对应的评分数据,使用起来非常的方便、快捷,并且该方法不依赖人眼观看,评分结果误差小、精度高。本方案通过摄像头获取牲畜尾部双目图像,并使用神经网络算法对牧场牲畜进行体况评分,不仅精度高、成本低,而且可推广性强,可以有效的减少人力成本。
实施例2
如图6所示,本发明还提供了一种基于双目视觉的牲畜体况监测系统,包括:
采集模块,用于利用摄像头获取牲畜尾部双目图像;
定位模块,用于根据所述牲畜尾部双目图像对牲畜尾部进行定位处理,并根据所述牲畜尾部双目图像中标定框的大小判断牲畜是否运动至适合评分的位置,筛选出满足条件的牲畜尾部双目图像;
分类模块,用于对满足条件的牲畜尾部双目图像进行分类处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测。
如图6所示实施例提供的基于双目视觉的牲畜体况监测系统可以执行上述方法实施例所示的技术方案,其实现原理与有益效果类似,此处不再赘述。
Claims (7)
1.一种基于双目视觉的牲畜体况监测方法,其特征在于,包括以下步骤:
S1、利用摄像头获取牲畜尾部双目图像;
S2、根据所述牲畜尾部双目图像对牲畜尾部进行定位处理,并根据所述牲畜尾部双目图像中标定框的大小判断牲畜是否运动至评分的位置,筛选出满足条件的牲畜尾部双目图像;
S3、对满足条件的牲畜尾部双目图像进行分类处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测。
2.根据权利要求1所述的基于双目视觉的牲畜体况监测方法,其特征在于,所述步骤S1中摄像头为两个,且两个摄像头轴距固定,光轴相互平行,两个摄像头的光心连线与光轴相垂直。
3.根据权利要求1所述的基于双目视觉的牲畜体况监测方法,其特征在于,所述步骤S2包括以下步骤:
S201、对所述牲畜尾部双目图像进行均值滤波处理;
S202、将经均值滤波处理后的牲畜尾部双目图像进行缩放处理;
S203、将经缩放处理后的牲畜尾部双目图像输入至基于Fast-YOLO的牲畜尾部检测网络,得到1176维向量的牲畜尾部双目图像;
S204、将176维向量的牲畜尾部双目图像均等划分为14×14个cell,每个cell分配6个向量元素,并将6个向量元素转换为预测值其中,p表示预测牲畜尾部条件的概率值,C表示弹性窗口bbox的置信度,x,y表示弹性窗口bbox中心点相对于所述cell边长的归一化值,w,h表示弹性窗口bbox的宽高相对于牲畜尾部双目图像宽高的归一化值,cell表示牲畜尾部双目图像均等划分后的图像块;
S206、判断所述某个弹性窗口bbox的牲畜尾部概率值是否大于预设的阈值,若是,则该弹性窗口bbox存在牲畜尾部,并将该弹性窗口bbox的x,y,w,h转化为输入图像中的实际坐标和长宽,完成对牲畜尾部定位,并进入步骤S207,否则,该弹性窗口bbox不存在牲畜尾部,并返回步骤S1;
S207、根据牲畜尾部定位结果,判断牲畜尾部双目图像的标定框长度是否大于牲畜尾部双目图像总长度的预设阈值且标定框的高度大于牲畜尾部双目图像总宽度的预设阈值,若是,则牲畜运动至评分的位置,并筛选出满足条件的牲畜尾部双目图像,并进入步骤S3,否则,牲畜未运动至评分的位置,结束流程。
4.根据权利要求3所述的基于双目视觉的牲畜体况监测方法,其特征在于,所述步骤S203中Fast-YOLO的牲畜尾部检测网络包括依次连接的第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第六卷积层、第七卷积层、第八卷积层以及第九卷积层;
所述第一卷积层的卷积核大小为3×3,其输出特征图的通道数为16;
所述第二卷积层的卷积核大小为3×3,其输出特征图的通道数为32;
所述第三卷积层的卷积核大小为3×3,其输出特征图的通道数为64;
所述第四卷积层的卷积核大小为3×3,其输出特征图的通道数为128;
所述第五卷积层的卷积核大小为3×3,其输出特征图的通道数为256;
所述第六卷积层的卷积核大小为3×3,其输出特征图的通道数为512;
所述第七卷积层的卷积核大小为3×3,其输出特征图的通道数为1024;
所述第八卷积层的卷积核大小为3×3,其输出特征图的通道数为256;
所述第一卷积层、第二卷积层、第三卷积层以及第四卷积层的卷积核移动步长均为2×2。
5.根据权利要求3所述的基于双目视觉的牲畜体况监测方法,其特征在于,所述S205中某个弹性窗口bbox的牲畜尾部概率值的表达式如下:
pb=C×p
其中,pb表示某个弹性窗口bbox的牲畜尾部概率值,C表示弹性窗口bbox的置信度,p表示预测牲畜尾部条件的概率值。
6.根据权利要求1所述的基于双目视觉的牲畜体况监测方法,其特征在于,所述步骤S3包括以下步骤:
S301、利用多尺度滤波器对满足条件的牲畜尾部双目图像进行特征提取;
S302、将提取的特征输入至分类器中进行梯度对数归一化处理,得到分类结果,其中,每个分类的类别表示一个体况分数;
S303、对归分类结果进行校准处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测。
7.一种基于双目视觉的牲畜体况监测系统,其特征在于,包括:
采集模块,用于利用摄像头获取牲畜尾部双目图像;
定位模块,用于根据所述牲畜尾部双目图像对牲畜尾部进行定位处理,并根据所述牲畜尾部双目图像中标定框的大小判断牲畜是否运动至适合评分的位置,筛选出满足条件的牲畜尾部双目图像;
分类模块,用于对满足条件的牲畜尾部双目图像进行分类处理,得到牲畜的体况评分,完成基于双目视觉的牲畜体况监测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111084243.4A CN114022831A (zh) | 2021-09-16 | 2021-09-16 | 一种基于双目视觉的牲畜体况监测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111084243.4A CN114022831A (zh) | 2021-09-16 | 2021-09-16 | 一种基于双目视觉的牲畜体况监测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114022831A true CN114022831A (zh) | 2022-02-08 |
Family
ID=80054498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111084243.4A Pending CN114022831A (zh) | 2021-09-16 | 2021-09-16 | 一种基于双目视觉的牲畜体况监测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114022831A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114550059A (zh) * | 2022-02-24 | 2022-05-27 | 河北易沃克机器人科技有限公司 | 鸡的健康状况的识别方法、装置、设备及存储介质 |
-
2021
- 2021-09-16 CN CN202111084243.4A patent/CN114022831A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114550059A (zh) * | 2022-02-24 | 2022-05-27 | 河北易沃克机器人科技有限公司 | 鸡的健康状况的识别方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Real-time sow behavior detection based on deep learning | |
CN110070074B (zh) | 一种构建行人检测模型的方法 | |
CN112734731B (zh) | 一种牲畜温度检测方法、装置、设备和存储介质 | |
CN109784200B (zh) | 基于双目视觉的奶牛行为图像获取与体况智能监测系统 | |
US20210383149A1 (en) | Method for identifying individuals of oplegnathus punctatus based on convolutional neural network | |
CN111476161A (zh) | 一种融合图像和生理信号双通道的体感动态手势识别方法 | |
CN110991222B (zh) | 一种物体状态监测、母猪发情监测方法、装置及系统 | |
CN116309781B (zh) | 一种基于跨模态融合的水下视觉目标测距方法及装置 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN114596448A (zh) | 一种肉鸭健康管理方法及其管理系统 | |
CN114463701B (zh) | 一种基于多源大数据动物养殖数据挖掘的监测预警系统 | |
CN113822185A (zh) | 一种群养生猪日常行为检测方法 | |
CN113139489A (zh) | 基于背景提取和多尺度融合网络的人群计数方法及系统 | |
Noe et al. | Automatic detection and tracking of mounting behavior in cattle using a deep learning-based instance segmentation model | |
CN116580322A (zh) | 一种地面背景下无人机红外小目标检测方法 | |
CN112949380A (zh) | 一种基于激光雷达点云数据的智能水下目标识别系统 | |
Palconit et al. | Three-dimensional stereo vision tracking of multiple free-swimming fish for low frame rate video | |
CN116977937A (zh) | 一种行人重识别的方法及系统 | |
CN116386120A (zh) | 一种无感监控管理系统 | |
CN114022831A (zh) | 一种基于双目视觉的牲畜体况监测方法及系统 | |
CN117132910A (zh) | 一种用于无人机的车辆检测方法、装置及存储介质 | |
CN112734794B (zh) | 一种基于深度学习的运动目标跟踪与定位方法 | |
CN108664919A (zh) | 一种基于单样本的行为识别与检测方法 | |
CN114743257A (zh) | 图像目标行为的检测识别方法 | |
KR102424901B1 (ko) | 객체 인식 알고리즘에 기초한 소의 발정 발현 판정방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |