CN115641466B - 一种基于视频数据的病牛甄别方法 - Google Patents
一种基于视频数据的病牛甄别方法 Download PDFInfo
- Publication number
- CN115641466B CN115641466B CN202211191996.XA CN202211191996A CN115641466B CN 115641466 B CN115641466 B CN 115641466B CN 202211191996 A CN202211191996 A CN 202211191996A CN 115641466 B CN115641466 B CN 115641466B
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- detection
- cattle
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/70—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于视频数据的病牛甄别方法,包括步骤一:牛样本图像收集;在牛舍安装部署可见光和红外光成像设备来实时的获取牛舍中牛在各个时段活动的图像数据;步骤二:图像物体检测模型训练;步骤三:时间序列分析;通过计算机视觉技术应用到畜牧业生产过程中,避免了在甄别在饲养过程中甄别不及时或受到人为主观因素的干扰。
Description
技术领域
本发明属于畜牧业流行病检测领域,尤其涉及一种基于视频数据的病牛甄别方法。
背景技术
目前,计算机视觉技术在畜牧业生产中的应用主要是通过检测禽蛋外观,新鲜度,蛋壳裂纹等描述禽蛋产品质量的数据;其次,应用计算机视觉技术代替人类对畜牧养殖业的肉类产品进行分类,已消除人对肉制品质量评估过程中受到的主观因素干扰。以上计算机视觉技术在畜牧业生产中的应用主要集中在对产品质量监督的阶段,未涉及到畜牧业生产的核心过程。将计算机视觉技术应用到畜牧业生产过程中如在牲畜发病早期对病畜个体进行甄别,对病畜进行早发现,早隔离,早治疗策略以防止疾病在牲畜之间发生大面积传播引发严重损失,是亟待研究解决的问题。
现有技术存在的问题是:目前在畜牧业生产过程中,对生病牲畜的判断甄别主要是依靠饲养人员的肉眼观察和主观判断。牲畜在生病出现机体不适时,它们无法直接向人们述说它们的感受,只有出现比较严重的症状和体征甚至是死亡时才会被人们发现,这将导致无法挽回的经济损失。这种通过人为观察甄别病牛的方法,受到人员主观经验因素的限制很难在牛患病早期对其进行甄别,存在准确判断时效性差的弊端。
发明内容
为解决现有技术的问题,本发明提供了一种基于视频数据的病牛甄别方法,通过计算机视觉技术应用到畜牧业生产过程中,避免了在甄别过程受到人为主观因素的干扰。
一种基于视频数据的病牛甄别方法,包括以下步骤:
步骤一:牛样本图像收集;
在牛舍安装部署可见光和红外光成像设备来实时的获取牛舍中牛在各个时段活动的图像数据,后将拍摄好的图片进行人工分类,有经验的牛养殖员根据经验进行分类,将牛的图片分为正常牛图片和病牛图片,病牛特征有:精神不振,少运动,毛发无光泽,呼吸急促,卧倒在地,食量减退,粪便异常。
步骤二:设计深度神经网络:
基于YOLO的病牛检测网络结构分为Backbone模块、Neck模块、Head模块三个部分;
Backbone模块:主要包含了BottleneckCSP单元和Focus单元;
BottleneckCSP单元在增强整个卷积神经网络学习性能的同时大幅减少了计算量;Focus单元对图片进行切片操作,将输入通道扩充为原来的4倍,并经过一次卷积得到下采样特征图,在实现下采样的同时减少了计算量并提升了速度,其具体为:
参数说明:
c1:BottleneckCSP结构的输入通道维度;
c2:BottleneckCSP结构的输出通道维度;
n:bottleneck结构结构的个数;
shortcut:是否给bottleneck结构添加shortcut连接,添加后即为ResNet模块;
g:groups,通道分组的参数,输入通道数、输出通道数必须同时满足被groups整除;
e:expansion:bottleneck结构中的瓶颈部分的通道膨胀率,使用0.5即为变为输入的12;
torch.cat((y1,y2),dim=1):这里是指定在第1个维度上进行合并,即在channel维度上合并;
c_:BottleneckCSP结构的中间层的通道数,由膨胀率e决定;
Neck(PANet)模块:中采用了PAN结合的结构,将常规的FPN层与自底向上的特征金字塔进行结合,将所提取的语义特征与位置特征进行融合,同时将主干层与检测层进行特征融合,使模型获取更加丰富的特征信息。
Head(Output)模块:输出一个向量,该向量具有目标对象的类别概率、对象得分和该对象边界框的位置。检测网络由三层检测层组成,不同尺寸的特征图用于检测不同尺寸的目标对象。每个检测层输出相应的向量,最后生成原图像中目标的预测边界框和类别并进行标记。
步骤三:图像物体检测模型训练;
此步骤使用的是YOLO检测框架作为实时物体检测的方法,包括如下步骤:
步骤1:将标记好的数据集进行随机抽样,将数据划分为两个部分训练部分和验证部分。
步骤2:对图像进行缩放处理将图像缩放到640*640的分辨率,在缩放时采用均值模板对原始图像进行卷积运算,其数学表达式如下:
I(x,y)=S(x,y)*T(x,y)
其中S代表输入的原始图像,I表示卷积操作的输出结果,T表示卷积模板。
步骤3:对缩放后的图像进行非线性的增强,对数变换主要用于对图像中低灰度值区域进行扩展,将其高灰度值部分压缩,以达到强调图像低灰度区域的目的,对数变换方法式如下:
t=c*log(1+s)
其中c为尺度比例常数,s为源灰度值,t为变换后目标灰度值。
步骤4:将预处理后的图像传入YOLO模型的输入层,这个网络模型将检测的过程考虑为一个回归问题,把输入的图像分割成N*N个网格,为每个网格预测B个边框以及每个边框对应的信度值,此外还预测相似于每个待检测类的概率,整个网络的损失函数公式如下:
其中:i代表第几个区域,输入图像有N*N=N2个区域,文本将N设置为7;j代表i个区域的第j个预测边框,B为预测边框的数量,本文设置为B=3;obj代表该框对应于真实物体,noobj代表该框没有对应于真实物体;x代表的是边框中心点横坐标,y代表的是边框中心点纵坐标,ω代表边框的宽,h代表边框的高,Cj代表样本信度真值;pi(c)代表边框类别概率值,c代表边框的类别。其中表示在网格i中的第j个边框负责预测当前目标的参数,使用随机梯度下降法和标记好的船舶图像样本数据,对卷积神经网络模型YOLO进行训练,获取到当前数据集中各种船舶的图像特征表达,提供给实时前向传播分类预测阶段使用。
上式第一项为正样本中心点坐标的损失,λcoord是为了调节位置损失的权重,本文中λcoord=5调高了位置损失的权重。
上式第二项为正样本宽高的损失,由于宽高差值受到物体尺度的影像,因此这里先对宽高进行了平方根处理,在一定程度上降低对尺度的敏感,强化了小物体的损失权重。
上式第三、四项分别为正样本与负样本的置信度损失,正样本置信度真值为1,负样本置信度为0。λnoobj默认为0.5,作用是调低负样本置信度损失的权重。
上式第五项为正样本的分类损失。
步骤5:在骨干网络(BackBone)中引入ADL注意力机制层
该方法由两个关键部分组成:(1)隐藏模型中最具辨别力的部分,以捕捉对象的整体范围;(2)突出信息区域,以提高模型的识别能力。
步骤6:将ADL层的输出作为检测层
在骨干网络的SPP层后加入ADL层并将输出结果输入BottleNeckCSP层,BottleNeckCSP层的输出作为检测层的输入,并根据回归类别数量使用1x1卷积对输出的通道数进行改变,以适应检测解码的要求。
步骤7:在检测层中增加每个锚点的先验框数量
在检测层部分增加预设锚框的数量将原来3个锚框变为4个锚框。
步骤四:时间序列分析;
在物体检测模型识别到牛区域后,本发明通过resnet50网络作为区域特征提取器,获取到病牛区域的图像特征。将当前特征与数据库中记录的特征进行匹配,如果成果匹配就对数据库中匹配到的目标特征进行更新,如果未匹配就将该特征写入数据库作为疑似病牛对象。匹配算法流程图如下图所示。当数据库中记录的被跟踪目标特征tracked_list中存在长度大于T阈值,如果tracked_list中观测点的时间间隔以天为单位,T取三,即表示连续三天该牛状态被判断为生病状态,如果木头牛连续三天为生病状态系统将该牛甄别为病牛,并向饲养管理员发出告警信息。
有益效果
1.本发明中提出的方法使用可见光和红外波段的成像设备,使用无接触不打扰牛群自然生活的图像识别技术实现了对养牛场病牛的自动甄别。
2.本发明使用基于图像数据分析的技术实现了自动化病牛甄别,避免了在甄别过程受到人为主观因素的干扰,该方法连续、实时、客观的技术优势。
3.弱监督对象定位技术仅使用图像级标签学习对象位置且无位置标注。这些技术的一个常见限制是,它们仅覆盖对象中最具辨别力的部分,而不是整个对象。为了解决这个问题,引入ADL层(Attention-based Dropout Layer)它利用自注意力机制来处理模型的特征映射。在骨干网络中的spp层之后加入ADL层,该层的作用与现有卷积网络技术相比,该方法在参数和计算开销方面都更有效。
4.在检测层部分增加预设锚框的数量将原来3个锚框变为4个锚框。提升了物体检测模型的召回率。
5.Focus单元对图片进行切片操作,将输入通道扩充为原来的4倍,并经过一次卷积得到下采样特征图,在实现下采样的同时减少了计算量并提升了速度。
6.Neck模块:中采用了PAN结合的结构,将常规的FPN层与自底向上的特征金字塔进行结合,将所提取的语义特征与位置特征进行融合,同时将主干层与检测层进行特征融合,使模型获取更加丰富的特征信息。
附图说明
图1是本发明的流程图;
图2是基于图像数据的病牛检测算法流程图;
图3是收集的牛的照片A;
图4是收集的牛的照片B;
图5是收集的牛的照片C;
图6是收集的牛的照片D;
图7是收集的牛的照片E;
图8是收集的牛的照片F;
图9是收集的牛的照片G;
图10是收集的牛的照片H;
图11是人工分类后的生病牛图;
图12是人工分类后的正常牛图;
图13是实施例的流程图。
具体实施例
为使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明中的技术方案进行清楚、完整地描述。
根据图1所示,本发明是流程如下:
步骤一:牛样本图像收集;
在牛舍安装部署可见光和红外光成像设备来实时的获取牛舍中牛在各个时段活动的图像数据,后将拍摄好的图片进行人工分类,将牛的图片分为正常牛图片和病牛图片。
步骤二:图像物体检测模型训练;
此步骤使用的是YOLO检测框架作为实时物体检测的方法,包括如下步骤:
步骤1:将标记好的数据集进行随机抽样,将数据划分为两个部分训练部分和验证部分。
步骤2:对图像进行缩放处理将图像缩放到640*640的分辨率,在缩放时采用均值模板对原始图像进行卷积运算,其数学表达式如下:
I(x,y)=S(x,y)*T(x,y)
其中S代表输入的原始图像,I表示卷积操作的输出结果,T表示卷积模板。
步骤3:对缩放后的图像进行非线性的增强,对数变换主要用于对图像中低灰度值区域进行扩展,将其高灰度值部分压缩,以达到强调图像低灰度区域的目的,对数变换方法式如下:
t=c*log(1+s)
其中c为尺度比例常数,s为源灰度值,t为变换后目标灰度值。
步骤4:将预处理后的图像传入YOLO模型的输入层,这个网络模型将检测的过程考虑为一个回归问题,把输入的图像分割成N*N个网格,为每个网格预测B个边框以及每个边框对应的信度值,此外还预测相似于每个待检测类的概率,整个网络的损失函数公式如下:
其中:i代表第几个区域,输入图像有N*N=N2个区域,文本将N设置为7;j代表i个区域的第j个预测边框,B为预测边框的数量,本文设置为B=3;obj代表该框对应于真实物体,noobj代表该框没有对应于真实物体;x代表的是边框中心点横坐标,y代表的是边框中心点纵坐标,ω代表边框的宽,h代表边框的高,Cj代表样本信度真值;pi(c)代表边框类别概率值,c代表边框的类别。其中表示在网格i中的第j个边框负责预测当前目标的参数,使用随机梯度下降法和标记好的船舶图像样本数据,对卷积神经网络模型YOLO进行训练,获取到当前数据集中各种船舶的图像特征表达,提供给实时前向传播分类预测阶段使用。
上式第一项为正样本中心点坐标的损失,λcoord是为了调节位置损失的权重,本文中λcoord=5调高了位置损失的权重。
上式第二项为正样本宽高的损失,由于宽高差值受到物体尺度的影像,因此这里先对宽高进行了平方根处理,在一定程度上降低对尺度的敏感,强化了小物体的损失权重。
上式第三、四项分别为正样本与负样本的置信度损失,正样本置信度真值为1,负样本置信度为0。λnoobj默认为0.5,作用是调低负样本置信度损失的权重。
上式第五项为正样本的分类损失。
步骤5:在骨干网络(BackBone)中引入ADL注意力机制层
该方法由两个关键部分组成:(1)隐藏模型中最具辨别力的部分,以捕捉对象的整体范围;(2)突出信息区域,以提高模型的识别能力。
步骤6:将ADL层的输出作为检测层
在骨干网络的SPP层后加入ADL层并将输出结果输入BottleNeckCSP层,BottleNeckCSP层的输出作为检测层的输入,并根据回归类别数量使用1x1卷积对输出的通道数进行改变,以适应检测解码的要求。
步骤7:在检测层中增加每个锚点的先验框数量
在检测层部分增加预设锚框的数量将原来3个锚框变为4个锚框。
步骤三:时间序列分析;
在物体检测模型识别到牛区域后,本发明通过resnet50网络作为区域特征提取器,获取到病牛区域的图像特征。将当前特征与数据库中记录的特征进行匹配,如果成果匹配就对数据库中匹配到的目标特征进行更新,如果未匹配就将该特征写入数据库作为疑似病牛对象。匹配算法流程图如下图所示。当数据库中记录的被跟踪目标特征tracked_list中存在长度大于T阈值,如果tracked_list中观测点的时间间隔以天为单位,T可以取三,即表示连续三天该牛状态被判断为生病状态,如果木头牛连续三天为生病状态系统将该牛甄别为病牛,并向饲养管理员发出告警信息。
实施例
根据图2-13所示,在此实施例中:
(1)收集牛的图片。
(2)对牛图片进行人工分类,有经验的牛养殖员根据经验进行分类,将牛的图片分为两个类别:生病牛和正常牛,其中正常牛图片为图3-5,病牛图片为图5-10。
病牛特征:精神不振,少运动,毛发无光泽,呼吸急促,卧倒在地,食量减退,粪便异常。
(3)设计深度神经网络:
基于YOLO的病牛检测网络结构分为Backbone模块、Neck模块、Head模块三个部分;
Backbone模块:主要包含了BottleneckCSP单元和Focus单元;
BottleneckCSP单元在增强整个卷积神经网络学习性能的同时大幅减少了计算量;Focus单元对图片进行切片操作,将输入通道扩充为原来的4倍,并经过一次卷积得到下采样特征图,在实现下采样的同时减少了计算量并提升了速度,其具体为:
参数说明:
c1:BottleneckCSP结构的输入通道维度;
c2:BottleneckCSP结构的输出通道维度;
n:bottleneck结构结构的个数;
shortcut:是否给bottleneck结构添加shortcut连接,添加后即为ResNet模块;
g:groups,通道分组的参数,输入通道数、输出通道数必须同时满足被groups整除;
e:expansion:bottleneck结构中的瓶颈部分的通道膨胀率,使用0.5即为变为输入的12;
torch.cat((y1,y2),dim=1):这里是指定在第1个维度上进行合并,即在channel维度上合并;
c_:BottleneckCSP结构的中间层的通道数,由膨胀率e决定;
Neck(PANet)模块:中采用了PAN结合的结构,将常规的FPN层与自底向上的特征金字塔进行结合,将所提取的语义特征与位置特征进行融合,同时将主干层与检测层进行特征融合,使模型获取更加丰富的特征信息。
Neck(PANet)模块:中采用了PAN结合的结构,将常规的FPN层与自底向上的特征金字塔进行结合,将所提取的语义特征与位置特征进行融合,同时将主干层与检测层进行特征融合,使模型获取更加丰富的特征信息。
Head(Output)模块:输出一个向量,该向量具有目标对象的类别概率、对象得分和该对象边界框的位置。检测网络由三层检测层组成,不同尺寸的特征图用于检测不同尺寸的目标对象。每个检测层输出相应的向量,最后生成原图像中目标的预测边界框和类别并进行标记。
(4)用(2)中分类标注好的数据对yolo模型进行训练学习,得到在图像中检测正常牛和生病牛的模型。
Yolo模型使用随机梯度下降方法进行训练算法过程如下:
Require:学习率εk
Require:初始参数θ
while停止准则未满足do
从训练集中采样包含m个样本{x1,x2,…,xm}的小批量,其中xi对应目标yi
计算梯度估计:
更新:θ←θ-ε×g
end
(5)将病牛检测模型部署在运算设备上,对实时拍摄到的图片进行检测,得到病牛在图片中的位置坐标信息,并将信息记录到数据库中。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (3)
1.一种基于视频数据的病牛甄别方法,其特征在于,包括以下步骤:
步骤一:牛样本图像收集;
在牛舍安装部署可见光和红外光成像设备来实时的获取牛舍中牛在各个时段活动的图像数据,后将拍摄好的图片进行人工分类,将牛的图片分为正常牛图片和病牛图片,病牛特征有:精神不振,少运动,毛发无光泽,呼吸急促,卧倒在地,食量减退,粪便异常;
步骤二:设计深度神经网络;
步骤三:图像物体检测模型训练;
步骤四:时间序列分析;
步骤三还包括,实时物体检测的方法使用的是YOLO检测框架法,具体包括如下步骤:
步骤1:将标记好的数据集进行随机抽样,将数据划分为两个部分训练部分和验证部分;
步骤2:对图像进行缩放处理将图像缩放到640*640的分辨率,在缩放时采用均值模板对原始图像进行卷积运算,其数学表达式如下:
I(x,y)=S(x,y)*T(x,y)
其中S代表输入的原始图像,I表示卷积操作的输出结果,T表示卷积模板;
步骤3:对缩放后的图像进行非线性的增强,对数变换主要用于对图像中低灰度值区域进行扩展,将其高灰度值部分压缩,以达到强调图像低灰度区域的目的,对数变换方法式如下:
t=c*log(1+s)
其中c为尺度比例常数,s为源灰度值,t为变换后目标灰度值;
步骤4:将预处理后的图像传入YOLO模型的输入层,这个网络模型将检测的过程考虑为一个回归问题,把输入的图像分割成N*N个网格,为每个网格预测B个边框以及每个边框对应的信度值,此外还预测相似于每个待检测类的概率,整个网络的损失函数公式如下:
其中:i代表第几个区域,输入图像有N*N=N2个区域,将N设置为7;j代表i个区域的第j个预测边框,B为预测边框的数量,设置B=3;obj代表该框对应于真实物体,noobj代表该框没有对应于真实物体;x代表的是边框中心点横坐标,y代表的是边框中心点纵坐标,ω代表边框的宽,h代表边框的高,Cj代表样本信度真值;pi(c)代表边框类别概率值,c代表边框的类别,其中表示在网格i中的第j个边框负责预测当前目标的参数,使用随机梯度下降法和标记好的图像样本数据,对卷积神经网络模型YOLO进行训练,获取到当前数据集中各种的图像特征表达,提供给实时前向传播分类预测阶段使用;
为正样本中心点坐标的损失,λcoord是为了调节位置损失的权重,λcoord=5调高了位置损失的权重;
为正样本宽高的损失,由于宽高差值受到物体尺度的影像,因此这里先对宽高进行了平方根处理,在一定程度上降低对尺度的敏感,强化了小物体的损失权重;
分别为正样本与负样本的置信度损失,正样本置信度真值为1,负样本置信度为0,λnoobj默认为0.5,作用是调低负样本置信度损失的权重;
为正样本的分类损失;
步骤5:在骨干网络中引入ADL注意力机制层
该方法由两个关键部分组成:
(1)隐藏模型中最具辨别力的部分,以捕捉对象的整体范围;
(2)突出信息区域,以提高模型的识别能力;
步骤6:将ADL层的输出作为检测层
在骨干网络的SPP层后加入ADL层并将输出结果输入BottleNeckCSP层,BottleNeckCSP层的输出作为检测层的输入,并根据回归类别数量使用1x1卷积对输出的通道数进行改变,以适应检测解码的要求;
步骤7:在检测层中增加每个锚点的先验框数量
在检测层部分增加预设锚框的数量将原来3个锚框变为4个锚框。
2.根据权利要求1中所述的一种基于视频数据的病牛甄别方法,其特征在于,步骤二具体包括:
基于YOLO的病牛检测网络结构分为Backbone模块、Neck模块、Head模块三个部分;
Backbone模块:主要包含了BottleneckCSP单元和Focus单元;
BottleneckCSP单元:在增强整个卷积神经网络学习性能的同时大幅减少了计算量;
Focus单元:对图片进行切片操作,将输入通道扩充为原来的4倍,并经过一次卷积得到下采样特征图;
Neck模块:采用了PAN结合的结构,将常规的FPN层与自底向上的特征金字塔进行结合,将所提取的语义特征与位置特征进行融合,同时将主干层与检测层进行特征融合;
Head模块:输出一个向量,该向量具有目标对象的类别概率、对象得分和该对象边界框的位置,检测网络由三层检测层组成,不同尺寸的特征图用于检测不同尺寸的目标对象,每个检测层输出相应的向量,最后生成原图像中目标的预测边界框和类别并进行标记。
3.根据权利要求1中所述的一种基于视频数据的病牛甄别方法,其特征在于,步骤四还包括,在物体检测模型识别到牛区域后,通过resnet50网络作为区域特征提取器,获取到病牛区域的图像特征,将当前特征与数据库中记录的特征进行匹配,如果匹配就对数据库中匹配到的目标特征进行更新,如果未匹配就将该特征写入数据库作为疑似病牛对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211191996.XA CN115641466B (zh) | 2022-09-28 | 2022-09-28 | 一种基于视频数据的病牛甄别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211191996.XA CN115641466B (zh) | 2022-09-28 | 2022-09-28 | 一种基于视频数据的病牛甄别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115641466A CN115641466A (zh) | 2023-01-24 |
CN115641466B true CN115641466B (zh) | 2023-08-04 |
Family
ID=84941190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211191996.XA Active CN115641466B (zh) | 2022-09-28 | 2022-09-28 | 一种基于视频数据的病牛甄别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115641466B (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020102988A1 (zh) * | 2018-11-20 | 2020-05-28 | 西安电子科技大学 | 基于特征融合和稠密连接的红外面目标检测方法 |
KR102425521B1 (ko) * | 2019-11-21 | 2022-07-27 | (주)씽크포비엘 | 영상정보 분석 기반 방역 시스템 및 그 이용 방법 |
JP6828928B1 (ja) * | 2020-02-28 | 2021-02-10 | 株式会社Eco‐Pork | 家畜疾病管理システム、家畜疾病管理サーバ、家畜疾病管理方法、及び家畜疾病管理プログラム |
CN112613428B (zh) * | 2020-12-28 | 2024-03-22 | 易采天成(郑州)信息技术有限公司 | 基于平衡损失的Resnet-3D卷积牛视频目标检测方法 |
CN113989647A (zh) * | 2021-11-15 | 2022-01-28 | 内蒙古沃付国际物联网有限公司 | 一种牲畜健康状态的监测方法及其系统 |
-
2022
- 2022-09-28 CN CN202211191996.XA patent/CN115641466B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115641466A (zh) | 2023-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113537106B (zh) | 一种基于YOLOv5的鱼类摄食行为识别方法 | |
Zhou et al. | Evaluation of fish feeding intensity in aquaculture using a convolutional neural network and machine vision | |
Fernandes et al. | Image analysis and computer vision applications in animal sciences: an overview | |
Amraei et al. | Broiler weight estimation based on machine vision and artificial neural network | |
CN110200598B (zh) | 一种大型养殖场体征异常禽类检测系统及检测方法 | |
CN111178197B (zh) | 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法 | |
CN111723729B (zh) | 基于知识图谱的监控视频犬类姿态和行为智能识别方法 | |
CN109543679A (zh) | 一种基于深度卷积神经网络的死鱼识别方法及预警系统 | |
CN113591671B (zh) | 一种基于Mask-Rcnn识别鱼类生长检测方法 | |
Noe et al. | Automatic detection and tracking of mounting behavior in cattle using a deep learning-based instance segmentation model | |
CN111783751A (zh) | 基于枪球联动与bim的养殖舍仔猪异常预警方法 | |
CN116052082A (zh) | 一种基于深度学习算法的配电站房异常检测方法及装置 | |
CN115578423A (zh) | 基于深度学习的鱼类关键点检测、个体追踪和生物量估算方法及系统 | |
Bello et al. | Mask YOLOv7-based drone vision system for automated cattle detection and counting | |
CN114092699A (zh) | 基于迁移学习的群猪图像分割的方法及系统 | |
CN117333948A (zh) | 一种融合时空注意力机制的端到端多目标肉鸡行为识别方法 | |
CN115641466B (zh) | 一种基于视频数据的病牛甄别方法 | |
Avanzato et al. | Dairy cow behavior recognition using computer vision techniques and CNN networks | |
Zu et al. | Joint Feature Target Detection Algorithm of Beak State Based on YOLOv5 | |
CN110991300A (zh) | 一种肉鸡腹部异常肿胀状态的自动识别方法 | |
Nasiri et al. | An automated video action recognition-based system for drinking time estimation of individual broilers | |
Liu et al. | Study on Pig Body Condition Scoring Based on Deep Learning Model EfficientNet-B0 | |
Hsieh et al. | A Video Surveillance System for Determining the Sexual Maturity of Cobia | |
Wang et al. | OP mask R-CNN: An advanced mask R-CNN network for cattle individual recognition on large farms | |
Wu et al. | Super-resolution fusion optimization for poultry detection: a multi-object chicken detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |