CN116935439A - 一种孕羊分娩自动监测预警方法及自动监测预警系统 - Google Patents

一种孕羊分娩自动监测预警方法及自动监测预警系统 Download PDF

Info

Publication number
CN116935439A
CN116935439A CN202310879250.6A CN202310879250A CN116935439A CN 116935439 A CN116935439 A CN 116935439A CN 202310879250 A CN202310879250 A CN 202310879250A CN 116935439 A CN116935439 A CN 116935439A
Authority
CN
China
Prior art keywords
module
early warning
pregnant sheep
delivery
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310879250.6A
Other languages
English (en)
Inventor
程曼
李少涵
袁洪波
蔡振江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei Agricultural University
Original Assignee
Hebei Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei Agricultural University filed Critical Hebei Agricultural University
Priority to CN202310879250.6A priority Critical patent/CN116935439A/zh
Publication of CN116935439A publication Critical patent/CN116935439A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Psychiatry (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Fuzzy Systems (AREA)
  • Human Computer Interaction (AREA)
  • Environmental Sciences (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种孕羊分娩自动监测预警方法及自动监测预警系统,属于畜牧养殖技术领域。首先实时拍摄羊舍中孕羊的图像,获取相应的孕羊产前行为视频图像;其次,构建能够实时识别出孕羊产前行为并计算出各类行为时长和起卧次数的行为监测模块和数据统计模块;最后,构建根据孕羊产前行为数据判断是否要进行分娩预警提示的分娩预警模块和发送预警提示的消息广播模块。本发明不需要人工干涉和佩戴传感器,采用无接触式的养殖管理模式,只需要通过监控摄像头和搭载该系统的电脑或手机,即可实现对孕羊行为监测和产前预警提示,该方法既可以节省人力和财力,具又有非接触性、实时性和自动性的优点。

Description

一种孕羊分娩自动监测预警方法及自动监测预警系统
技术领域
本发明涉及畜牧养殖技术领域,尤其是涉及一种孕羊分娩自动监测预警方法及自动监测预警系统。
背景技术
近年来,传统畜牧业正向现代畜牧业快速转型,以羊产业为例,当前我国肉羊产业正处于发展的关键阶段,生产方式由放牧生产向规模化标准化舍饲方向转型;在舍饲养羊过程中,分娩阶段对于母羊和羔羊来说都是一个关键时期,若在这一时期忽视对母羊和羔羊的管理,可能会导致母羊难产、羔羊死亡等问题,这将直接影响到养殖场的经济效益;因此对待产母羊实现分娩自动监测预警十分重要。
孕羊的行为和活动模式随着分娩时间的临近而改变,某些生理和行为参数可能是即将分娩的明确信号;这些行为包括进食和饮水行为的减少、起卧频繁、侧躺时四肢伸直等行为;因此,监测、量化临产前孕羊的这些行为,并对这些行为的变化进行分析能够有效预测孕羊分娩的开始。
目前对于孕羊临产的监测有人工观测和使用基于传感器的自动监测设备两种方法。如果人工进行观测,由于劳动力成本高和所需工作时间长,对所有待分娩母羊进行持续的人工监督是不可行的。使用传感器设备虽然可以实现自动记录动物行为,但由于要求动物佩戴这些传感器,直接接触身体可能会对动物产生压力,影响动物的福利或健康。此外,当传感器撞上围栏或当动物对其进行啃咬时,产生的噪声数据会影响对其行为的判断。而用计算机视觉技术能够很好的解决这一问题,通过视频和图像处理的方法不像可穿戴传感器那样受电池运行时间的限制,能够在更长的时间内收集数据,而且能够在不接触动物的情况下监控动物整个可见的身体。
发明内容
本发明的目的是提供一种孕羊分娩自动监测预警方法及自动监测预警系统,通过监控摄像头和搭载该系统的电脑或手机,可以实现对孕羊行为的监测和产前预警提示,既可以节省人力和财力,又具有非接触性、实时性和自动性的优点。
为实现上述目的,本发明采用了如下技术方案:
一种孕羊分娩自动监测预警方法,包括以下步骤:
S1、安装摄像头,对羊舍中孕羊进行拍摄,获取其视频图像;
S2、从视频图像中截取孕羊行为帧图像,进行行为分类、标注,建立孕羊产前行为数据集;
S3、将步骤S2中建立的数据集按照一定的比例划分成训练集、验证集和测试集,进行训练构建深度学习网络YOLO-Sheep;
S4、识别和显示孕羊行为,并根据不同行为进行赋值编码输出;
S5、将步骤S4中的输出结果进行实时判断并统计,每t时间间隔输出一次在该时间段内孕羊不同行为时长以及起卧次数;
S6、根据步骤S5中的输出数据来判断是否进行预警;
S7、在接收到步骤S6中进行预警提示的指示消息后,将孕羊会在h小时内分娩的预警提示信息发送至安装到该系统的设备上。
优选的,步骤S3中的深度学习网络YOLO-Sheep包括Input、Backbone、Head三个部分,视频图像中获取的图片首先经过Input部分数据增强等操作进行预处理后,送入主干网络,经过Backbone部分中的4个CBS模块输出到Head部分中;
其中,CBS模块进行特征提取和下采样,包括一个卷积层、批处理归一化层和一个激活函数。
优选的,深度学习网络YOLO-Sheep的具体流程如下:
S31、将步骤CBS模块的输出结果导入到ELAN模块中,经过两条分支,做特征提取,得到输出矩阵;
S32、将步骤S31的输出结果导入到MP_Conv模块中,进行下采样,得到矩阵输出;
S33、重复步骤S32和S33三次,得到三个特征层;
S34、将得到的三个特征层分别输入到一个CBAM模块中,分别进行通道注意力机制和空间注意力机制的处理;
S35、利用SPPCSPC模块对feat3进行特征提取,获得P5;
S36、对P5进行1次1*1卷积调整通道后进行上采样,并与feat2进行一次卷积后的特征层进行结合,然后使用MP_Conv模块进行特征提取获得P4;
S37、对P4进行1次1*1卷积调整通道后进行上采样,并与feat1进行一次卷积后的特征层进行结合,然后使用MP_Conv模块进行特征提取获得P3;
S38、P3_out通过ELAN模块进行下采样后与P4堆叠,然后经过MP_Conv模块进行特征提取P4_out;
S39、P4_out通过ELAN模块进行下采样后与P5堆叠,然后经过MP_Conv模块进行特征提取P5_out;
S40、将上述步骤得到的三个加强特征层经过REP模块,传入Yolo Head输出获得视频帧预测结果。
本发明还提供了一种孕羊分娩自动监测预警系统,包括:
视频监控模块:接收获取视频图像;
行为监测模块:接收视频监控模块获取的视频图像并识别和显示孕羊行为;
行为数据统计模块:接收行为监测模块输出的行为编码并进行实时判断和统计;
分娩预警模块:接收行为数据统计模块输出的数据并预测孕羊分娩时刻,判断是否进行孕羊分娩预警;
消息广播模块:接收预警提示信息并按分发机制将消息发送至不同的设备上。
优选的,分娩预警模块包括一个基于LSTM算法的预测模型,该模块根据输入预测模型的数据来判断该孕羊会在h小时内分娩,将预测得到的h值与设定的H值进行比较得到Signal,最后根据输出结果Signal来判断是否进行预警。
优选的,LSTM算法的预测模型包括输入层、隐藏层、输出层、网络训练和网络预测五个部分,五个部分分为四层,具体如下:
输入层的数据为每t时间间隔内孕羊站立、躺卧、进食、饮水行为时长和起卧次数;
输出层的输出数据为该孕羊在多久之后会进行分娩;
InputLayer层进行数据输入和预处理;
LSTM层是进行高层次特征学习。
优选的,LSTM算法的预测模型中:
通过Adam的优化方法更新网络权重;
LSTM单元内隐藏层的神经元数量可以根据训练结果进行调节;
Dropout层让某个神经元的激活值以一定的概率p停止工作;
Dense层将学到的“分布式特征表示”映射到样本标记空间。
因此,本发明采用上述一种孕羊分娩自动监测预警方法及自动监测预警系统,实现的有益效果为:
在监测预警孕羊分娩时,本发明不需要人工干涉和佩戴传感器,采用无接触式的养殖管理模式,只需要通过监控摄像头和搭载该系统的电脑或手机,即可实现对孕羊行为监测和产前预警提示,既可以节省人力和财力,又具有非接触性、实时性和自动性的优点。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明一种孕羊分娩自动监测预警方法及自动监测预警系统的结构示意图;
图2为本发明一种孕羊分娩自动监测预警方法及自动监测预警系统的工作流程图;
图3为本发明一种孕羊分娩自动监测预警方法及自动监测预警系统深度学习网络YOLO-Sheep的结构示意图;
图4为本发明一种孕羊分娩自动监测预警方法及自动监测预警系统预测模型的结构示意图;
图5为本发明一种孕羊分娩自动监测预警方法及自动监测预警系统消息广播模块的示意图。
具体实施方式
以下通过附图和实施例对本发明的技术方案作进一步说明。
除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
实施例
如图1-5所示,本发明提供了一种孕羊分娩自动监测预警方法及自动监测预警系统,自动监测预警系统包括:
一、视频监控模块:在羊舍安装摄像头,对羊舍中孕羊进行拍摄,获取其视频图像。
二、从视频图像上截取孕羊行为清楚的帧图像并进行行为分类、标注,建立孕羊产前行为数据集。
三、将建立的数据集按照一定的比例划分成训练集、验证集和测试集用来训练构建的深度学习网络YOLO-Sheep。
四、行为监测模块:将视频监控模块中获取的视频图像实时传入行为监测模块,对孕羊行为进行识别和显示,并根据不同行为进行赋值编码输出;行为监测模块主要由已训练好的深度学习网络YOLO-Sheep构成,深度学习网络YOLO-Sheep是在YOLO v7基础上进行了优化和改进;
如图3所示,深度学习网络YOLO-Sheep主要包含了Input(输入)、Backbone(主干网络)、Head(头部)这三个部分;
首先,图片经过输入部分数据增强等一系列操作进行预处理后,以640*640*3的大小送入主干网络。经过4个CBS模块得到160*160*128输出。其中CBS模块是由一个卷积(Conv)层、批处理归一化(BatchNormalization)层和一个激活函数(SiLU)组成来进行特征提取和下采样;
(1)将上一步中输出导入ELAN模块,经过两条分支,第一条分支经过一个1*1的卷积做通道数的变化。第二条分支首先经过一个1*1的卷积模块,做通道数的变化。然后再经过四个3*3的卷积模块,做特征提取。最后把四个特征叠加在一起得到最后的特征提取结果,得到160*160*256的输出矩阵;
(2)将上一步输出导入MP_Conv模块,该模块也有两个分支,作用时进行下采样。第一条分支先经过一个最大池化(maxpool)进行下采样,然后再经过一个1*1的卷积进行通道数的改变。第二条分支先经过一个1*1的卷积,做通道数的变化,然后再经过一个3*3卷积核、步长为2的卷积块,进行下采样。最后两个分支结果加在一起,得到超级下采样80*80*256的矩阵输出;
(3)重复流程(2)(3)三次得到三个特征层,feat1大小为80*80*512、feat2为40*40*1024、feat3为20*20*1024;
(4)将得到的三个特征层feat1、feat2、feat3分别输入到一个CBAM(Convolutional BlockAttention Module)模块分别进行通道注意力机制和空间注意力机制的处理。首先进行通道注意力机制的实现,对输入进来的特征层分别进行全局平均池化和全局最大池化并利用共享的全连接层进行处理,最后对处理后的两个结果进行相加,取一个sigmoid,获得了输入特征层每一个通道的权值(0-1之间),将这个权值乘上原输入特征层即可。接着进行空间注意力机制处理,对输入进来的特征层在每一个特征点的通道上取最大值和平均值。之后将这两个结果进行一个堆叠,利用一次通道数为1的卷积调整通道数,然后取一个sigmoid,获得输入特征层每一个特征点的权值(0-1之间),将这个权值乘上原输入特征层最终得到更新后的特征层feat1、feat2、feat3;
(5)利用SPPCSPC模块对feat3进行特征提取,提高网络的感受野,获得P5;
(6)对P5先进行1次1*1卷积调整通道,然后进行上采样UmSampling后与feat2进行一次卷积后的特征层进行结合,然后使用MP_Conv模块进行特征提取获得P4,此时获得的特征层大小为40*40*256;
(7)对P4先进行1次1*1卷积调整通道,然后进行上采样UmSampling后与feat1进行一次卷积后的特征层进行结合,然后使用MP_Conv模块进行特征提取获得P3_out,此时获得的特征层大小为80*80*128;
(8)P3_out通过ELAN模块进行下采样,下采样后与P4堆叠,然后经过MP_Conv模块进行特征提取P4_out,此时获得的特征层大小为40*40*256。
(9)P4_out通过ELAN模块进行下采样后与P5堆叠,然后经过MP_Conv模块进行特征提取P5_out,此时获得的特征层大小为20*20*512;
(10)将上述步骤得到的三个大小分别为20*20*512、40*40*256、80*80*128的加强特征层经过REP模块,该模块在保证网络预测性能的同时降低网络复杂度,最后传入YoloHead输出获得视频帧预测结果。
五、行为数据统计模块:将由孕羊行为监测模块得到的行为编码输入到该模块中进行实时判断并统计,每t时间间隔输出一次在该时间段内孕羊不同行为时长以及起卧次数。
六、分娩预警模块:将行为数据统计模块中的输出数据输入到构建的分娩预警模块中,分娩预警模块主要由一个基于LSTM算法的预测模型构成,该模块会根据输出的数据来预测该孕羊在h小时内分娩;将预测得到的h值与设定的H值进行比较得到Signal,最后根据该模块输出结果Signal来判断是否进行预警;
上式中,Signal为预警标识,0表示不发出预警提示,1表示发出预警提示;预测模型的结构如图2所示;
如图4所示,LSTM预测模型的结构包括:输入层、隐藏层、输出层、网络训练及网络预测五个部分,五个部分分为四层:
输入层的数据为每t时间间隔内孕羊站立、躺卧、进食、饮水行为时长和起卧次数;
输出层的输出数据为该孕羊在多久之后会进行分娩;
InputLayer层进行数据输入和预处理;
LSTM层的作用是实现高层次特征学习;
其中LSTM单元内的隐藏层的神经元数量可根据训练结果进行调节,Dropout层的作用是让某个神经元的激活值以一定的概率p停止工作,防止网络过拟合;Dense层即为全连接层,在一定程度保留了模型复杂度,同时将学到的“分布式特征表示”映射到样本标记空间,在整个卷积神经网络中起到“分类器”的作用。通过Adam的优化方法更新网络权重,使得网络损失最小;
(1)数据首先通过公式计算得到遗忘门,
ft=σ(Wf.[ht-1,xt]+bf)
式中ft表示遗忘门,如果输出接近0,表示不重要;如果输出接近1,表示重要,σ表示sigmoid激活函数,xt对应t时刻的样本数据,Wf是权值矩阵,ht-1是上个时刻隐藏状态,bf是偏置项。
(2)接下来数据通过输入门结构,通过以下公式分别计算得到输入门和记忆单元,
it=σ(Wi.[ht-1,xt]+bi)
式中it表示输入门,同样使用sigmoid函数对其进行选择,tanh表示双曲正切激活函数,表示候选记忆单元,xt对应t时刻的样本数据,Wi和Wc分别表示权值矩阵,ht-1是上个时刻隐藏状态,bi,bc是偏置项。
(3)用前面的输入门以及更新门来更新老记忆单元ct-1,公式如下,
其中,⊙是元素级别的乘法,即哈达玛积,ct-1表示旧的记忆单元,ct表示更新后的记忆单元。
(4)数据接着通过输出门结构,通过下式计算得到输出门,
Ot=σ(Wo.[ht-1,xt]+bo)
其中,Ot表示输出门,当其等于1的时候,就意味着完全保留了当前时刻的信息;当等于0的时候,就代表不需要将任何信息输出,Wo表示权值矩阵,bo是偏置项。
(5)最后通过如下公式计算得到LSTM的最终输出:
ht=Ot⊙tanh(ct)
其中,ht表示t时刻输入数据对于的最终输出,tanh表示双曲正切激活函数。
以上公式中W和b分别代表权重矩阵和偏置项,具有各自的i,f,o,c索引,以匹配输入门,遗忘门,输出门和记忆单元的计算。
七、消息广播模块。如图5所示,该模块在接收到预警提示的指示息后将预警提示信息(即孕羊将在h小时内进行分娩),发送至安装到该系统的设备上;分娩预警模块调用程序向消息队列中添加消息,循环器开启循环后,只要消息队列不为空就会不断从消息队列中读取消息按分发机制将消息发送到不同的设备上。
因此,本发明通过采用一种孕羊分娩自动监测预警方法及自动监测预警系统,不需要人工干涉和佩戴传感器,采用无接触式的养殖管理模式,只需要通过监控摄像头和搭载该系统的电脑或手机,即可实现对孕羊行为监测和产前预警提示,该方法既可以节省人力和财力,具又有非接触性、实时性和自动性的优点。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。

Claims (7)

1.一种孕羊分娩自动监测预警方法,其特征在于:
包括以下步骤:
S1、安装摄像头,对羊舍中孕羊进行拍摄,获取其视频图像;
S2、从视频图像中截取孕羊行为帧图像,进行行为分类、标注,建立孕羊产前行为数据集;
S3、将步骤S2中建立的数据集按照一定的比例划分成训练集、验证集和测试集,进行训练构建深度学习网络YOLO-Sheep;
S4、识别和显示孕羊行为,并根据不同行为进行赋值编码输出;
S5、将步骤S4中的输出结果进行实时判断并统计,每t时间间隔输出一次在该时间段内孕羊不同行为时长以及起卧次数;
S6、根据步骤S5中的输出数据来判断是否进行预警;
S7、在接收到步骤S6中进行预警提示的指示消息后,将孕羊会在h小时内分娩的预警提示信息发送至安装到该系统的设备上。
2.根据权利要求1所述的一种孕羊分娩自动监测预警方法,其特征在于:
步骤S3中的深度学习网络YOLO-Sheep包括Input、Backbone、Head三个部分,视频图像中获取的图片首先经过Input部分数据增强操作进行预处理后,送入主干网络,经过Backbone部分中的4个CBS模块输出到Head部分中;
其中,CBS模块进行特征提取和下采样,包括一个卷积层、批处理归一化层和一个激活函数。
3.根据权利要求2所述的一种孕羊分娩自动监测预警方法,其特征在于:深度学习网络YOLO-Sheep的具体流程如下:
S31、将步骤CBS模块的输出结果导入到ELAN模块中,经过两条分支,做特征提取,得到输出矩阵;
S32、将步骤S31的输出结果导入到MP_Conv模块中,进行下采样,得到矩阵输出;
S33、重复步骤S32和S33三次,得到三个特征层;
S34、将得到的三个特征层分别输入到一个CBAM模块中,分别进行通道注意力机制和空间注意力机制的处理;
S35、利用SPPCSPC模块对feat3进行特征提取,获得P5;
S36、对P5进行1次1*1卷积调整通道后进行上采样,并与feat2进行一次卷积后的特征层进行结合,然后使用MP_Conv模块进行特征提取获得P4;
S37、对P4进行1次1*1卷积调整通道后进行上采样,并与feat1进行一次卷积后的特征层进行结合,然后使用MP_Conv模块进行特征提取获得P3;
S38、P3_out通过ELAN模块进行下采样后与P4堆叠,然后经过MP_Conv模块进行特征提取P4_out;
S39、P4_out通过ELAN模块进行下采样后与P5堆叠,然后经过MP_Conv模块进行特征提取P5_out;
S40、将上述步骤得到的三个加强特征层经过REP模块,传入Yolo Head输出获得视频帧预测结果。
4.一种孕羊分娩自动监测预警系统,其特征在于:包括:
视频监控模块:接收获取视频图像;
行为监测模块:接收视频监控模块获取的视频图像并识别和显示孕羊行为;
行为数据统计模块:接收行为监测模块输出的行为编码并进行实时判断和统计;
分娩预警模块:接收行为数据统计模块输出的数据并预测孕羊分娩时刻,判断是否进行孕羊分娩预警;
消息广播模块:接收预警提示信息并按分发机制将消息发送至不同的设备上。
5.根据权利要求4所述的一种孕羊分娩自动监测预警系统,其特征在于:分娩预警模块包括一个基于LSTM算法的预测模型,该模块根据输入预测模型的数据来判断该孕羊会在h小时内分娩,将预测得到的h值与设定的H值进行比较得到Signal,最后根据输出结果Signal来判断是否进行预警。
6.根据权利要求5所述的一种孕羊分娩自动监测预警系统,其特征在于:LSTM算法的预测模型包括输入层、隐藏层、输出层、网络训练和网络预测五个部分,五个部分分为四层,具体如下:
输入层的数据为每t时间间隔内孕羊站立、躺卧、进食、饮水行为时长和起卧次数;
输出层的输出数据为该孕羊在多久之后会进行分娩;
InputLayer层进行数据输入和预处理;
LSTM层是进行高层次特征学习。
7.根据权利要求6所述的一种孕羊分娩自动监测预警系统,其特征在于:
LSTM算法的预测模型中:
通过Adam的优化方法更新网络权重;
LSTM单元内隐藏层的神经元数量根据训练结果进行调节;
Dropout层让某个神经元的激活值以一定的概率p停止工作;
Dense层将学到的“分布式特征表示”映射到样本标记空间。
CN202310879250.6A 2023-07-18 2023-07-18 一种孕羊分娩自动监测预警方法及自动监测预警系统 Pending CN116935439A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310879250.6A CN116935439A (zh) 2023-07-18 2023-07-18 一种孕羊分娩自动监测预警方法及自动监测预警系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310879250.6A CN116935439A (zh) 2023-07-18 2023-07-18 一种孕羊分娩自动监测预警方法及自动监测预警系统

Publications (1)

Publication Number Publication Date
CN116935439A true CN116935439A (zh) 2023-10-24

Family

ID=88379995

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310879250.6A Pending CN116935439A (zh) 2023-07-18 2023-07-18 一种孕羊分娩自动监测预警方法及自动监测预警系统

Country Status (1)

Country Link
CN (1) CN116935439A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117197902A (zh) * 2023-11-07 2023-12-08 华南农业大学 一种母猪分娩智能预测系统及方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460713A (zh) * 2018-10-16 2019-03-12 北京京东金融科技控股有限公司 动物分娩的识别方法、装置和设备
CN110123484A (zh) * 2019-05-31 2019-08-16 乐山知行智能科技有限公司 一种牲畜分娩检测方法和装置
CN112101291A (zh) * 2020-09-27 2020-12-18 成都睿畜电子科技有限公司 一种牲畜的护理方法、装置、介质及电子设备
CN112131927A (zh) * 2020-08-03 2020-12-25 南京农业大学 基于妊娠后期姿态转化特性的母猪分娩时间预测系统
CN112836607A (zh) * 2021-01-25 2021-05-25 河北农业大学 一种羊只产期预警的方法
CN114022302A (zh) * 2021-11-16 2022-02-08 陕西科技大学 一种基于视频监控的孕期山羊智能管理系统及管理方法
CN116013502A (zh) * 2022-12-16 2023-04-25 河北农业大学 一种羊只疾病初期检测方法
CN116071783A (zh) * 2023-02-13 2023-05-05 贵州省吉尔斯循环农业有限公司 一种羊生殖健康预警系统及方法
CN116343057A (zh) * 2023-03-16 2023-06-27 电子科技大学 一种联合sar与光学图像的舰船目标检测与识别方法
CN116403133A (zh) * 2023-03-09 2023-07-07 广东工业大学 一种基于YOLO v7改进的车辆检测算法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460713A (zh) * 2018-10-16 2019-03-12 北京京东金融科技控股有限公司 动物分娩的识别方法、装置和设备
CN110123484A (zh) * 2019-05-31 2019-08-16 乐山知行智能科技有限公司 一种牲畜分娩检测方法和装置
CN112131927A (zh) * 2020-08-03 2020-12-25 南京农业大学 基于妊娠后期姿态转化特性的母猪分娩时间预测系统
CN112101291A (zh) * 2020-09-27 2020-12-18 成都睿畜电子科技有限公司 一种牲畜的护理方法、装置、介质及电子设备
CN112836607A (zh) * 2021-01-25 2021-05-25 河北农业大学 一种羊只产期预警的方法
CN114022302A (zh) * 2021-11-16 2022-02-08 陕西科技大学 一种基于视频监控的孕期山羊智能管理系统及管理方法
CN116013502A (zh) * 2022-12-16 2023-04-25 河北农业大学 一种羊只疾病初期检测方法
CN116071783A (zh) * 2023-02-13 2023-05-05 贵州省吉尔斯循环农业有限公司 一种羊生殖健康预警系统及方法
CN116403133A (zh) * 2023-03-09 2023-07-07 广东工业大学 一种基于YOLO v7改进的车辆检测算法
CN116343057A (zh) * 2023-03-16 2023-06-27 电子科技大学 一种联合sar与光学图像的舰船目标检测与识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHIEN-YAO WANG 等: "-YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors", 《ARXIV:2207.02696》, pages 1 - 15 *
KAILIN JIANG 等: "An Attention Mechanism-Improved YOLOv7 Object Detection Algorithm for Hemp Duck Count Estimation", 《AGRICULTURE》, vol. 12, no. 10, pages 1 - 18 *
QIANG ZHU 等: "YOLOv7-CSAW for maritime target detection", 《FRONTIERS IN NEUROROBOTICS, 2023》, pages 1 - 15 *
吴兴辉 等: "改进YOLO v7算法下的监控水域环境人员识别研究", 《电子测量与仪器学报》, pages 20 - 27 *
吴志高 等: "基于改进YOLO v7的微藻轻量级检测方法", 《大连海洋大学学报》, pages 129 - 139 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117197902A (zh) * 2023-11-07 2023-12-08 华南农业大学 一种母猪分娩智能预测系统及方法
CN117197902B (zh) * 2023-11-07 2024-01-30 华南农业大学 一种母猪分娩智能预测系统及方法

Similar Documents

Publication Publication Date Title
Bao et al. Artificial intelligence in animal farming: A systematic literature review
Oczak et al. Classification of aggressive behaviour in pigs by activity index and multilayer feed forward neural network
CN110402840B (zh) 一种基于图像识别的生猪监测终端及生猪监测系统
CN110147771B (zh) 基于母猪关键部位与环境联合分区的母猪侧卧姿态实时检测系统
US20220391757A1 (en) Disease prediction system, insurance fee calculation system, and disease prediction method
Lee et al. Prediction of feather damage in laying hens using optical flows and Markov models
CN116935439A (zh) 一种孕羊分娩自动监测预警方法及自动监测预警系统
CN110991222A (zh) 一种物体状态监测、母猪发情监测方法、装置及系统
Ma et al. Basic motion behavior recognition of single dairy cow based on improved Rexnet 3D network
CN114167922A (zh) 一种基于多传感器数据采集的农牧智能分析的方法及系统
CN115457468A (zh) 一种大型草场的智慧畜牧监测方法及系统
Gong et al. Sika Deer Behavior Recognition Based on Machine Vision.
CN116543462A (zh) 基于视频骨骼的奶牛行为识别判断奶牛健康状况的方法
CN115777560A (zh) 一种基于机器视觉分析技术的母猪智能化饲喂系统
Hitelman et al. The effect of age on young sheep biometric identification
CN116013502A (zh) 一种羊只疾病初期检测方法
Alon et al. Machine vision-based automatic lamb identification and drinking activity in a commercial farm
CN113068657A (zh) 一种智能化高效养猪方法及系统
Gu et al. A two-stage recognition method based on deep learning for sheep behavior
Owalekar et al. An agri vigilance system based on computer vision and deep learning
CN117787511B (zh) 一种工厂化高密度水产养殖监测预警方法及其系统
KR102424901B1 (ko) 객체 인식 알고리즘에 기초한 소의 발정 발현 판정방법
CN115272943B (zh) 一种基于数据处理的畜牧家禽进食异常识别方法
CN116703897B (zh) 一种基于图像处理的猪只体重估值方法
Duan et al. Remaining feed weight estimation model for health monitoring of meat rabbits based on deep convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination