CN115272943B - 一种基于数据处理的畜牧家禽进食异常识别方法 - Google Patents

一种基于数据处理的畜牧家禽进食异常识别方法 Download PDF

Info

Publication number
CN115272943B
CN115272943B CN202211198552.9A CN202211198552A CN115272943B CN 115272943 B CN115272943 B CN 115272943B CN 202211198552 A CN202211198552 A CN 202211198552A CN 115272943 B CN115272943 B CN 115272943B
Authority
CN
China
Prior art keywords
moment
key point
target object
time
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211198552.9A
Other languages
English (en)
Other versions
CN115272943A (zh
Inventor
何灿华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NANTONG SHUANGHE FOOD CO Ltd
Original Assignee
NANTONG SHUANGHE FOOD CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NANTONG SHUANGHE FOOD CO Ltd filed Critical NANTONG SHUANGHE FOOD CO Ltd
Priority to CN202211198552.9A priority Critical patent/CN115272943B/zh
Publication of CN115272943A publication Critical patent/CN115272943A/zh
Application granted granted Critical
Publication of CN115272943B publication Critical patent/CN115272943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明涉及数据处理技术领域,具体涉及一种基于数据处理的畜牧家禽进食异常识别方法。该方法结合相关的电子设备进行图像识别得到各时刻对应的第一进食图像和第二进食图像;根据各时刻对应的第一进食图像和第二进食图像,得到复杂程度和各时刻目标对象对应的重要程度;根据各时刻下目标对象的重要程度、复杂程度和训练好的进食状态识别网络,得到目标时间内目标对象的进食状态。本发明提供了一种结合电子设备进行图形识别的畜牧家禽进食异常识别的方法,并进行相关的数据处理,实现了对家禽进食情况的实时判断。

Description

一种基于数据处理的畜牧家禽进食异常识别方法
技术领域
本发明涉及数据处理技术领域,具体涉及一种基于数据处理的畜牧家禽进食异常识别方法。
背景技术
世界上大多数的家禽肉和鸡蛋是密集生产的,给人们带来了健康美味的食物;在家禽养殖工厂的密集生产过程中的家禽健康管理和疾病预防是个难题;鸡在生病时会做出异常的进食行为,如果早点发现可以提前预防疾病的发生;除此之外,鸡在挑食时会将饲料啄出食槽,不仅浪费饲料,掉落地面的饲料还会被污染,而且被鸡吃下去可能会患病,如果能够及时发现可以减少饲料的浪费,同时还可以尽快检查饲料是否有问题;因此对家禽进食的过程进行监测,以及时判断异常行为是很重要的。
现有的利用图像识别的方法来分析图像中家禽进食的次数以及进食时间,但是进食的次数和时间并不能很好的判断家禽的进食状态是否异常;同时采用传统的人工识别的方式进行识别的主观性较强,并也难以实时的和大范围的进行监测;因此如何对家禽养殖工厂中家禽的进食状态进行判断是需要解决的问题。
发明内容
为了解决现有技术基于人工识别的方式对家禽进食情况进行判断,可靠性较低的问题,本发明的目的在于提供一种基于数据处理的畜牧家禽进食异常识别方法,所采用的技术方案具体如下:
本发明提供了一种基于数据处理的畜牧家禽进食异常识别方法包括以下步骤:
获取目标对象在目标时间段内的待分析视频片段;所述待分析视频片段包括第一视频片段和第二视频片段,第一视频片段和第二视频片是在不同视角下拍摄的视频,第一视频片段包括各时刻对应的第一进食图像,第二视频片段包括各时刻对应的第二进食图像;根据各时刻对应的第一进食图像中目标对象的各关键点的坐标和各时刻对应的第二进食图像中目标对象的各关键点的坐标,得到各时刻下目标对象的各关键点对应的位置向量;
根据各时刻对应的第一进食图像和第二进食图像,得到各时刻对应的各方向的光流图;根据各时刻对应的各方向的光流图,得到各时刻下目标对象的重要程度;
根据各时刻下目标对象的重要程度,得到所述待分析视频片段对应的复杂程度;
根据各时刻下目标对象的各关键点对应的位置向量,构建待分析视频片段对应的关键点时空共现图;所述关键点时空共现图中每个节点对应一个时刻下目标对象的一个关键点;根据关键点时空共现图、所述各时刻下目标对象的重要程度、所述待分析述视频片段对应的复杂程度和训练好的进食状态识别网络,得到目标时间段内目标对象的进食状态。
优选的,所述根据各时刻对应的第一进食图像中目标对象的各关键点的坐标和各时刻对应的第二进食图像中目标对象的各关键点的坐标,得到各时刻下目标对象的各关键点对应的位置向量,包括:
所述第一进食图像中目标对象的各关键点是将第一进食图像输入到训练好的鸡身关键点检测网络中得到的;所述二进食图像中目标对象的各关键点是将第二进食图像输入到训练好的鸡身关键点检测网络中得到的;
对于任一时刻下目标对象的任一关键点对应的位置向量:
根据该关键点在该时刻对应的第一进食图像中的坐标和在该时刻对应的第二进食图像中的坐标,得到该时刻下目标对象的该关键点对应的位置向量。
优选的,所述根据各时刻对应的第一进食图像和第二进食图像,得到各时刻对应的各方向的光流图;根据各时刻对应的各方向的光流图,得到各时刻下目标对象的重要程度,包括:
对于任一时刻:
利用光流算法对该时刻对应的第一进食图像和上一时刻对应的第一进食图像进行处理,得到该时刻对应的光流图,记为第一光流图;
利用光流算法对该时刻对应的第二进食图像和上一时刻的对应第二进食图像进行处理,得到该时刻对应的光流图,记为第二光流图;
分别将该时刻对应的第一光流图和第二光流图进行拆分,得到该时刻对应的各方向的光流图;所述各方向包括第一进食图像的水平方向和竖直方向和第二进食图像的水平方向和竖直方向;
提取该时刻对应的各方向的光流图中的连通域;分别选取各光流图中面积最大的连通域,记为目标连通域;
根据该时刻对应的各光流图中目标连通域的最小外接矩形的长和宽,计算该时刻对应的各光流图对应的动作幅度指标;
根据该时刻对应的各光流图对应的动作幅度指标,计算该时刻下目标对象的重要程度。
优选的,所述计算该时刻对应的各光流图对应的动作幅度指标的公式如下:
Figure 100002_DEST_PATH_IMAGE002
其中,
Figure 100002_DEST_PATH_IMAGE003
为第t个时刻对应的x轴方向上的光流图对应的动作幅度指标,
Figure 100002_DEST_PATH_IMAGE004
为x轴方向上的光流图对应的目标连通域的长,
Figure 100002_DEST_PATH_IMAGE005
为x轴方向上的光流图对应的目标连通域的宽,
Figure 100002_DEST_PATH_IMAGE006
为第i个光流图对应的目标连通域内像素点的总数量,
Figure 100002_DEST_PATH_IMAGE007
为第i个光流图对应的目标连通域内第a个像素点的灰度值,
Figure 100002_DEST_PATH_IMAGE008
为最大值。
优选的,所述计算该时刻下目标对象的重要程度的公式如下:
Figure 100002_DEST_PATH_IMAGE010
其中,
Figure 100002_DEST_PATH_IMAGE011
为第t个时刻下目标对象的重要程度,
Figure 100002_DEST_PATH_IMAGE012
为第t个时刻对应的y轴方向上的光流图对应的动作幅度指标,
Figure 100002_DEST_PATH_IMAGE013
为第t个时刻对应的q轴方向上的光流图对应的动作幅度指标,
Figure 100002_DEST_PATH_IMAGE014
为第t个时刻对应的z轴方向上的光流图对应的动作幅度指标,
Figure 100002_DEST_PATH_IMAGE015
为第一关注权重,
Figure 100002_DEST_PATH_IMAGE016
为第二关注权重,
Figure 100002_DEST_PATH_IMAGE017
为第三关注权重,
Figure 100002_DEST_PATH_IMAGE018
为第四关注权重。
优选的,根据各时刻下目标对象的重要程度,得到所述待分析视频片段对应的复杂程度的公式如下:
Figure 100002_DEST_PATH_IMAGE020
其中,
Figure 100002_DEST_PATH_IMAGE021
为待分析视频片段的复杂程度,
Figure 100002_DEST_PATH_IMAGE022
目标时间段内各时刻下目标对象对应的重要程度的均值,
Figure 100002_DEST_PATH_IMAGE023
为目标时间段内各时刻的数量,
Figure 100002_DEST_PATH_IMAGE024
为目标时间段内各时刻下目标对象对应的重要程度的集合,
Figure 100002_DEST_PATH_IMAGE025
为最大值,
Figure 826519DEST_PATH_IMAGE011
为第t个时刻下目标对象的重要程度。
优选的,根据各时刻下目标对象的各关键点对应的位置向量,构建待分析视频片段对应的关键点时空共现图,包括:
以各时刻下目标对象的各关键点为关键点时空共现图的各节点,所述各节点的值为对应关键点对应的位置向量;
使同一时刻下目标对象的各关键点对应的节点进行相连,构成对应时刻下的鸡身形态;将各时刻下目标对象的相同的关键点对应的节点按照时间顺序相连,得到待分析视频片段对应的关键点时空共现图。
优选的,根据关键点时空共现图、所述各时刻下目标对象的重要程度、所述待分析述视频片段对应的复杂程度和训练好的进食状态识别网络,得到目标时间段内目标对象的进食状态,包括:
所述进食状态识别网络包括图注意力网络和多层感知器;所述图注意力网络基于多头注意力机制来对输入的数据进行处理;
对于任一层注意力机制:根据关键点时空共现图中各节点对应的位置向量和各时刻下目标对象对应的重要程度,计算各节点与对应的邻域节点集合中的各节点之间的权重;根据自定义迭代次数和各节点与对应的邻域节点集合中的各节点之间的权重,对各节点进行多次聚合更新,得到该层注意力机制中各节点对应的目标位置向量;所述邻域节点集合包括关键点时空共现图中与对应节点相连的各节点;
根据每一层注意力机制得到各节点对应的目标位置向量,计算经过多头注意力机制得到的各节点对应的特征向量;
根据关键点时空共现图中每个时刻对应的各节点对应的特征向量,得到每个时刻对应的目标特征向量;
将各时刻对应的目标特征向量输入到多层感知器中,得到目标对象在对应时刻下的进食状态。
优选的,所述计算任意两个节点之间的权重的公式为:
Figure 100002_DEST_PATH_IMAGE027
其中,
Figure 100002_DEST_PATH_IMAGE028
为关键点时空共现图中节点i与节点j之间的权重,
Figure 100002_DEST_PATH_IMAGE029
为向量拼接操作,
Figure 100002_DEST_PATH_IMAGE030
为激活函数,
Figure 100002_DEST_PATH_IMAGE031
为节点j对应的时刻下目标对象对应的重要程度,
Figure 100002_DEST_PATH_IMAGE032
为第一权值,
Figure 100002_DEST_PATH_IMAGE033
是相似度向量,
Figure 100002_DEST_PATH_IMAGE034
为相似度向量的转置,
Figure 100002_DEST_PATH_IMAGE035
为关键点时空共现图中节点i对应的位置向量,
Figure 100002_DEST_PATH_IMAGE036
为关键点时空共现图中节点i对应的邻域节点集合中的节点j对应的位置向量,
Figure 100002_DEST_PATH_IMAGE037
为权重矩阵,
Figure 100002_DEST_PATH_IMAGE038
为节点i对应的邻域节点集合;
所述自定义迭代次数的计算公式为:
Figure 100002_DEST_PATH_IMAGE040
其中,
Figure 100002_DEST_PATH_IMAGE041
为自适应迭代次数,
Figure 100002_DEST_PATH_IMAGE042
为最少迭代次数,
Figure 100002_DEST_PATH_IMAGE043
是比例参数,
Figure 218055DEST_PATH_IMAGE021
为待分析视频片段的复杂程度。
优选的,根据关键点时空共现图中每个时刻对应的各节点对应的特征向量,得到每个时刻对应的目标特征向量,包括:
对于任一时刻:
将关键点时空共现图中该时刻的各节点对应的特征向量按顺序排列,构建第一特征序列;
将关键点时空共现图中该时刻的下一时刻的各节点对应的特征向量按顺序排列,构建第二特征序列;
将关键点时空共现图中该时刻的上一时刻的各节点对应的特征向量按顺序排列,构建第三特征序列;
将第三特征序列、第一特征序列和第二特征序列按时间顺序拼接在一起,得到该时刻对应的目标特征向量。
本发明具有如下有益效果:
本发明结合相关的电子设备进行图像识别得到各时刻对应的第一进食图像和第二进食图像,进而根据第一进食图像和第二进食图像,得到各时刻下目标对象的各关键点对应的位置向量、目标对象对应的重要程度和待分析视频片段对应的复杂程度;为了便于结合不同时刻目标对象的关键点来分析对应的进食状态,本发明根据各时刻下目标对象的各关键点对应的位置向量,构建关键点时空共现图;最终将关键点时空共现图、所述各时刻下目标对象的重要程度和所述待分析述视频片段对应的复杂程度输入到训练好的进食状态识别网络中,得到目标时间段内目标对象的进食状态。本发明对实时拍摄到的家禽进食的视频数据进行分析,通过视频数据中的多帧图像中家禽的各个关键点的位置变化情况,来对家禽进食状态进行自动化的判断,实现了对家禽进食情况的实时判断。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明所提供的一种基于数据处理的畜牧家禽进食异常识别方法的流程图;
图2为关键点时空共现图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功能效果,以下结合附图及较佳实施例,对依据本发明提出的一种基于数据处理的畜牧家禽进食异常识别方法进行详细说明如下。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种基于数据处理的畜牧家禽进食异常识别方法的具体方案。
一种基于数据处理的畜牧家禽进食异常识别方法实施例:
如图1所示,本实施例的一种基于数据处理的畜牧家禽进食异常识别方法包括以下步骤:
步骤S1,获取目标对象在目标时间段内的待分析视频片段;所述待分析视频片段包括第一视频片段和第二视频片段,第一视频片段和第二视频片是在不同视角下拍摄的视频,第一视频片段包括各时刻对应的第一进食图像,第二视频片段包括各时刻对应的第二进食图像;根据各时刻对应的第一进食图像中目标对象的各关键点对应的坐标和各时刻对应的第二进食图像中目标对象的各关键点对应的坐标,得到各时刻下目标对象的各关键点对应的位置向量。
家禽养殖工厂一般养殖两个品种的鸡,即肉鸡和蛋鸡;其中肉鸡一般40多天出栏,因此对其进食进行异常监测的经济效益不大;而蛋鸡的产蛋期有13个月,因此本实施例在这期间对蛋鸡进行进食异常监测。
在现代化蛋鸡养殖工厂中,蛋鸡被小批量的养殖在一个长方体笼子里,以进行批量化养殖;本实施例将笼子底部有长条形食槽的一侧称为进食侧面,在进食侧面上方分别布置两个视角的相机阵列,具体的:在各笼子进食侧面的正上方布置多个第一相机,多个第一相机的位置间隔根据实际需要来设置;所述第一相机是垂直向下录像的,能够拍摄到蛋鸡的整个身体。在各第一相机旁边设置第二相机,所述第二相机能够拍摄到蛋鸡身体的侧上方。一个第一相机对应一个第二相机,第一相机和对应的第二相机拍摄蛋鸡的不同视角。
本实施例中第一相机和第二相机的帧频均为30FPS,具体可根据实际需要进行修改;除此之外,第一相机和第二相机的位置设置可根据实际需要进行调整,其位置需保证能够便于提取蛋鸡的各关键点,所述各关键点包括蛋鸡的鸡喙、鸡冠、喉部、脖子中部、脖子底部、鸡身中部、鸡尾,共7个关键点;所述各关键的种类和数量可根据实际需要进行调整。
由于录制的视频是由多帧图像组成的,且一个时刻对应一帧图像;本实施例将第一相机录制到的每一帧图像记为第一进食图像,以第一进食图像的中心点为原点,以水平方向为x轴(即横坐标轴),以竖直方向为y轴(即纵坐标轴),构建第一直角坐标系,进而确定第一进食图像中各像素点的坐标;将第二相机录制到的每一帧图像记为第二进食图像,以第二进食图像的中心点为原点,以水平方向为q轴(即横坐标轴),以竖直方向为z轴(即纵坐标轴),构建第二直角坐标系,进而确定第二进食图像中各像素点的坐标。本实施例中第一进食图像和第二进食图像的大小相同。
本实施例在对蛋鸡进行视频录制时,分别对实时拍摄到的蛋鸡对应的第一进食图像和第二进食图像进行处理,得到第一进食图像中的鸡身骨架图和第二进食图像对应的鸡身骨架图,所述鸡身骨架图包括蛋鸡在对应视角下的各关键点的图;本实施例对任一时刻的第一进食图像和对应的第二进食图像进行处理的过程具体为:
首先构建鸡身关键点检测网络,所述鸡身关键点检测网络为OpenPose关键点检测模型;然后根据笼子上布置的第一相机和对应的第二相机,利用人工截取蛋鸡正常进食、挑食、观望、抽搐以及其他行为的样本图像,并且人工标注出各样本图像中蛋鸡的各关键点,得到各样本图像对应的标签数据;本实施例根据各样本图像以及各样本图像对应的标签数据对鸡身关键点检测网络进行训练,得到训练好的鸡身关键点检测网络。本实施例中鸡身关键点检测网络和对鸡身关键点检测网络进行训练的过程为现有技术,在此就不再赘述。
本实施例分别将该时刻该蛋鸡对应的第一进食图像和对应的第二进食图像输入到训练好的鸡身关键点检测网络中,得到第一进食图像对应的鸡身骨架图和第二进食图像对应的鸡身骨架图。第一进食图像和第一进食图像对应的鸡身骨架图的大小相同,且像素点的坐标一一对应;第二进食图像和第二进食图像对应的鸡身骨架图的大小相同,且像素点的坐标一一对应。OpenPose关键点检测模型可以提取关键点,并且可以区分出各关键点属于哪个蛋鸡。
本实施例结合该时刻下同一关键点在第一进食图像对应的鸡身骨架图的坐标和第二进食图像对应的鸡身骨架图的坐标,得到该时刻下蛋鸡各关键点对应的位置向量(即将该关键点对应的两个坐标进行拼接,得到对应的位置向量),即
Figure DEST_PATH_IMAGE044
,其中,
Figure DEST_PATH_IMAGE045
为该时刻下第i个关键点对应的位置向量,
Figure DEST_PATH_IMAGE046
为该时刻下第i个关键点在第一进食图像中的横坐标,
Figure DEST_PATH_IMAGE047
为该时刻下第i个关键点在第一进食图像中的纵坐标,
Figure DEST_PATH_IMAGE048
为该时刻下第i个关键点在第二进食图像中的横坐标,
Figure DEST_PATH_IMAGE049
为该时刻下第i个关键点在第二进食图像中的纵坐标。在对蛋鸡进行视频录制时,本实施例根据上述过程可以实时获取每个时刻下蛋鸡的各关键点的位置向量。
本实施例中,第一相机和对应的第二相机对蛋鸡进行实时的录像,且每录制一段时间,就对这段时间中的两个视频(即第一相机录制的视频和第二相机录制的视频)进行分析,以判断视频中的蛋鸡在该时间段内的进食状态,所述一段时间的大小根据实际需要进行设置。
实际情况下第一相机和第二相机拍摄到的不止一个蛋鸡,因此在对视频中的蛋鸡进行分析是,需要先将两个视频中各时刻对应的图像中每个蛋鸡对应的ROI区域提取出来,然后对视频中每个蛋鸡的ROI区域进行分析,进而判断视频中各蛋鸡在每个时刻的进食状态;蛋鸡在两个视频中的ROI区域应大小相等,具体可根据实际需要进行操作。为了方便分析,本实施例假设每个时刻的第一进食图像和第二进食图像中仅包括一个蛋鸡。
在对一段时间内的两个视频进行分析时,本实施例对两个视频进行分段,首先截取两个视频中蛋鸡鸡冠关键点伸出进食侧面的一段视频,然后再将该蛋鸡鸡冠关键点伸出进食侧面的一段视频继续划分,得到第一相机对应的各第一视频片段和第二相机对应的各第二视频片段;本实施例将同一时间内的第一视频片段和第二视频片段作为一个视频片段;视频片段中包括蛋鸡的多种动作。将待分析的视频划分成多个视频片段便于对蛋鸡的各个动作进行分析,具体视频的划分过程和划分方式可根据实际需要进行设置。
本实施例获取一时间段内拍摄任一蛋鸡的第一相机和对应第二相机录制的视频,然后分别对这两个视频进行划分,得到多个时间段对应的视频片段;本实施例以任一时间段对应的视频片段为例,对该视频片段内的蛋鸡进行分析,得到该蛋鸡在该时间段的进食状态;本实施例将该时间段记为目标时间段,将该视频片段中的蛋鸡记为目标对象,将该视频片段记为待分析视频片段。
本实施例后续描述的目标时间段内各时刻对应的第一进食图像和第二进食图像均为目标对象的第一进食图像和第二进食图像。
步骤S2,根据各时刻对应的第一进食图像和第二进食图像,得到各时刻对应的各方向的光流图;根据各时刻对应的各方向的光流图,得到各时刻下目标对象对应的重要程度。
本实施例使用Farneback光流算法分别对目标时间段内各时刻对应的第一进食图像和第二进食图像进行处理,得到目标时间段内各时刻对应的第一光流图和第二光流图;本实施例中任一时刻对应的第一光流图由该时刻对应的第一进食图像和上一时刻的第一进食图像得到;同理任一时刻对应的第二光流图由该时刻对应的第二进食图像和上一时刻对应的第二进食图像得到;对于视频中的第一帧图像本实施例不进行处理;所述光流图中的每个像素点都有一个位移矢量,本实施例根据各时刻对应的第一光流图和第二光流图,得到各时刻对应的各方向的光流图,具体的:将各时刻对应的第一光流图拆分为x轴方向(水平方向)的光流图和y轴方向(竖直方向)的光流图,同时将各时刻对应的第二光流图拆分为q轴方向(水平方向)的光流图,z轴方向的光流图。本实施例中Farneback光流算法以及对光流图进行拆分的过程为现有技术,在此就不再赘述。
由于在对目标对象进行录制的过程中会得到各时刻下目标对象的各关键点对应的位置向量;因此在目标时间段内各时刻对应各关键点的坐标向量和四个方向的光流图。
本实施例根据各时刻对应的各方向的光流图,得到各时刻下目标对象的重要程度,重要程度可以反映出该时刻下目标对象综合的动作幅度(即当前时刻与上一时刻之前的动作变化幅度),动作变化幅度越大,则目标对象对应的重要程度越大,其进食状态越有可能异常。
对于任一时刻:
由于光流图为灰度图,并且灰度越大的地方说明其位移越大;根据该时刻对应的各光流图,本实施例分别提取该时刻各方向的光流图中的连通域;由于一个光流图中可能会有多个连通域,本实施例使用形态学方法求得该时刻对应的各光流图中每个连通域的面积,然后分别选取各光流图中面积最大的连通域,记为目标连通域;根据该时刻对应的各光流图中目标连通域的最小外接矩形的长和宽,计算该时刻对应的各光流图对应的动作幅度指标,所述动作幅度指标用来反映目标对象在不同方向上的进食幅度大小,具体计算该时刻对应的各光流图对应的动作幅度指标的公式为:
Figure DEST_PATH_IMAGE050
其中,
Figure 712622DEST_PATH_IMAGE003
为第t个时刻对应的x轴方向上的光流图对应的动作幅度指标,
Figure 714076DEST_PATH_IMAGE004
为x轴方向上的光流图对应的目标连通域的长,
Figure 893734DEST_PATH_IMAGE005
为x轴方向上的光流图对应的目标连通域的宽,
Figure 562613DEST_PATH_IMAGE006
为第i个光流图对应的目标连通域内像素点的总数量,
Figure 290398DEST_PATH_IMAGE007
为第i个光流图对应的目标连通域内第a个像素点的灰度值,
Figure 779148DEST_PATH_IMAGE008
为最大值。根据上述公式,目标连通域对应的最小外接矩形的长和宽的最大值反映了对应的目标对象产生位移的最大跨度,若目标对象产生位移的最大跨度越大,说明目标对象在对应方向上的动作幅度越大,即对应的动作幅度指标越大;若目标连通域内各像素点的灰度值越大,说明目标对象移动的越多,即对应的动作幅度指标越大。
本实施例根据该时刻对应的各光流图对应的动作幅度指标,计算该时刻下目标对象的重要程度,具体计算公式为:
Figure 516160DEST_PATH_IMAGE010
其中,
Figure 773966DEST_PATH_IMAGE011
为第t个时刻下目标对象的重要程度,
Figure 203810DEST_PATH_IMAGE012
为第t个时刻对应的y轴方向上的光流图对应的动作幅度指标,
Figure 179856DEST_PATH_IMAGE013
为第t个时刻对应的q轴方向上的光流图对应的动作幅度指标,
Figure 189401DEST_PATH_IMAGE014
为第t个时刻对应的z轴方向上的光流图对应的动作幅度指标,
Figure 567292DEST_PATH_IMAGE015
为第一关注权重,
Figure 902459DEST_PATH_IMAGE016
为第二关注权重,
Figure 365801DEST_PATH_IMAGE017
为第三关注权重,
Figure 444616DEST_PATH_IMAGE018
为第四关注权重;本实施例中
Figure DEST_PATH_IMAGE051
,因为x轴方向上的动作幅度最能体现出鸡挑食的甩头动作,其次是z轴方向上的鸡头上下运动,y轴方向和q轴方向则反应了鸡头的伸进伸出变化;
Figure DEST_PATH_IMAGE052
的取值可根据实际需要进行调整。
根据上述公式,若该时刻对应的各方向的光流图对应的动作幅度指标越大,则说明该时刻下目标对象在进食时综合的动作幅度越大,因此要更加关注,即该时刻下目标对象对应的关注程度越大。
本实施例根据上述过程可以得到目标时间段内各时刻下目标对象对应的重要程度。
步骤S3,根据各时刻下目标对象的重要程度,得到所述待分析视频片段对应的复杂程度。
本实施例中步骤S2从目标时间段内各时刻对应的图片进行分析,得到了目标时间段内各时刻下目标对象对应的重要程度;接下来本实施例根据目标时间段内各时刻下目标对象对应的重要程度,计算目标时间段对应的待分析视频片段的复杂程度;所述复杂程度反映的在两个视角下,目标对象在目标时间段内动作的复杂情况,即复杂程度越大,说明目标对象在目标时间段内各时刻下的动作幅度都较大,动作变化比较多,因此需要分析的信息也越多。本实施例计算待分析视频片段的复杂程度的公式为:
Figure 660702DEST_PATH_IMAGE020
其中,
Figure 166770DEST_PATH_IMAGE021
为待分析视频片段的复杂程度,
Figure 117408DEST_PATH_IMAGE022
为目标时间段内各时刻下目标对象对应的重要程度的均值,
Figure 734334DEST_PATH_IMAGE023
为目标时间段内各时刻的数量(即目标时间段内第一视频片段的帧数,或第二视频片段的帧数),
Figure 821239DEST_PATH_IMAGE024
为目标时间段内各时刻下目标对象对应的重要程度的集合,
Figure 498208DEST_PATH_IMAGE025
为最大值,
Figure DEST_PATH_IMAGE053
为目标时间段内各时刻下目标对象对应的重要程度的集合中的最大值。
根据上述公式,
Figure DEST_PATH_IMAGE054
为目标时间段内各时刻下目标对象对应的重要程度的方差,反映了待分析视频片段内各时刻下目标对象对应的重要程度的差异;若所述方差越大,说明待分析视频片段内各时刻下目标对象对应的重要程度的差异越大,则待分析视频片段越复杂,即对应的复杂程度越大;除此之外,
Figure 404984DEST_PATH_IMAGE053
越大,说明待分析视频片段内存在某一时刻下目标对象的重要程度越大,即综合的动作幅度越大,则待分析视频片段越复杂,即对应的复杂程度越大。
步骤S4,根据各时刻下目标对象的各关键点对应的位置向量,构建待分析视频片段对应的关键点时空共现图;所述关键点时空共现图中每个节点对应一个时刻下目标对象的一个关键点;将关键点时空共现图、所述各时刻下目标对象的重要程度和所述待分析述视频片段对应的复杂程度输入到训练好的进食状态识别网络中,得到目标时间段内目标对象的进食状态。
为了对待分析视频片段中目标对象的各种进食状态进行分析,本实施例首先根据各时刻下目标对象的各关键点对应的位置向量,来构建对应的关键点时空共现图,具体的:以各时刻下目标对象的各关键点为关键点时空共现图中的各节点,且每个节点对应的值为对应关键点的位置向量;使同一时刻下目标对象的各关键点对应的节点按照鸡身形态进行相连,构成对应时刻下的鸡身形态图,即一个时间维度对应一个鸡身形态图;然后将各时刻下目标对象的相同的关键点对应的节点按照时间顺序相连,进而得到待分析视频片段对应的关键点时空共现图。
例如,若待分析视频片段包括三个时刻(即一个视频一共三帧),则对应的关键点时空共现图如图2所示,图中实线连接的各节点为鸡身形态图(即同一时刻下的各节点用实现连接),虚线连接的是三个时刻对应的同一关键点;图中七个白色的节点分别为:1为第一个时刻对应的第一个关键点(即鸡喙关键点),2为第一个时刻对应的第二个关键点(即鸡冠关键点),3为第一个时刻对应的第三个关键点(即喉部关键点),4为第一个时刻对应的第四个关键点(即脖子中部关键点),5为第一个时刻对应的第五个关键点(即脖子底部关键点),6为第一个时刻对应的第六个关键点(即鸡身中部关键点),7为第一个时刻对应的第七个关键点(即鸡尾关键点);七个灰色的节点为第二个时刻对应的各关键点,七个黑色的节点为第三个时刻对应的各关键点,其连接顺序与第一时刻对应的各节点连接顺序相同;例如8为第二个时刻对应的第二个关键点(即鸡冠关键点),9为第三个时刻对应的第二个关键点(即鸡冠关键点),其余节点在此就不再赘述。
然后本实施例将待分析述视频片段对应的关键点时空共现图、各时刻下目标对象对应的重要程度和待分析述视频片段对应的复杂程度输入到训练好的进食状态识别网络中,以得到目标时间内目标对象的进食状态。所述进食状态识别网络为多层神经网络,包括图注意力网络(GAT)和多层感知器(MLP),其图注意力网络的输出为多层感知器的输入。
本实施例的图注意力网络利用多头注意力机制对关键点时空共现图中各节点进行分析,所述多头注意力机制包括多层注意力机制,每一层采用不同的权重矩阵分别对输入的数据进行处理,本实施例中采用4层注意力机制,具体层数可根据实际需要进行修改。
对于任一层注意力机制:
该层注意力机制需要对输入的关键点时空共现图中的各节点的位置向量进行多次的聚合处理,进而得到该层注意力机制聚合完成后的各节点对应的最终的目标位置向量;本实施例首先根据各节点对应的位置向量和各时刻下目标对象对应的重要程度,计算各节点与对应的邻域节点集合中的各节点之间的权重;对于任一节点,该节点对应的邻域节点集合为与该节点相连的各节点(如图2所示,2对应的邻域节点集合包括1,3,8),然后计算该节点与邻域节点集合内各节点之间的权重,计算公式为:
Figure DEST_PATH_IMAGE055
其中,
Figure 809290DEST_PATH_IMAGE028
为关键点时空共现图中节点i与节点j之间的权重(即节点j对于节点i的权重),
Figure 16280DEST_PATH_IMAGE029
为向量拼接操作,
Figure 864150DEST_PATH_IMAGE030
为激活函数,
Figure 789381DEST_PATH_IMAGE031
为节点j对应的时刻下目标对象对应的重要程度,
Figure 748110DEST_PATH_IMAGE032
为第一权值,
Figure 809607DEST_PATH_IMAGE033
是相似度向量,
Figure 828378DEST_PATH_IMAGE034
为相似度向量的转置,
Figure 975326DEST_PATH_IMAGE035
为关键点时空共现图中节点i对应的位置向量,
Figure 3325DEST_PATH_IMAGE036
为关键点时空共现图中节点j对应的位置向量(即关键点时空共现图中节点i对应的邻域节点集合中的节点j对应的位置向量),
Figure 919328DEST_PATH_IMAGE037
为权重矩阵,
Figure 843422DEST_PATH_IMAGE038
为节点i对应的邻域节点集合;
Figure DEST_PATH_IMAGE056
的作用是衡量两向量
Figure DEST_PATH_IMAGE057
Figure 726933DEST_PATH_IMAGE034
的相似度,其中
Figure 27464DEST_PATH_IMAGE033
的维度与
Figure DEST_PATH_IMAGE058
的维度相同。本实施例中的权重矩阵
Figure 63554DEST_PATH_IMAGE037
用于对位置向量进行线性变换的来实现降维,其矩阵大小为4行2列;
Figure 158548DEST_PATH_IMAGE032
用于反映重要程度在计算权重时的重要性。本实施例在传统的计算两个节点之间的权重的公式增加了重要程度,进而更加准确的计算权重。
本实施例根据上述过程可以得到关键点时空共现图中各节点与对应的邻域节点集合中的各节点之间的权重。
进一步地,对各节点进行多次聚合更新,进而在该层注意力机制中得到各节点对应的目标位置向量,对于第一次聚合得到各节点第一次聚合更新后的位置向量的公式为:
Figure DEST_PATH_IMAGE060
其中,
Figure DEST_PATH_IMAGE061
为节点i聚合更新后的位置向量。
第一次聚合更新完待分析视频片段对应的所有的节点后,再以各节点对应的新的位置向量从头开始再次进行聚合操作,直至迭代完成。所述注意力机制为现有技术在此就不再赘述。
考虑到一般图结构的聚合在所有的节点都完成邻域节点聚合后,会用更新后的向量再次进行聚合,通过感知邻域节点的信息来感知更远的节点,而且会迭代运行多次;但是如果迭代太多次,会导致所有节点更新后的信息趋于一致,不利于后续的分类任务。因此为了避免过平滑现象,本实施例根据待分析视频片段的复杂程度,来自适应设置聚合的迭代次数,具体的:
Figure 14509DEST_PATH_IMAGE040
其中,
Figure 384310DEST_PATH_IMAGE041
为自适应迭代次数,
Figure 9327DEST_PATH_IMAGE042
为最少迭代次数,本实施例根据经验值设置
Figure DEST_PATH_IMAGE062
,具体可根据实际需要进行修;
Figure 540802DEST_PATH_IMAGE043
是比例参数,用来反映待检测视频片段的复杂程度在计算迭代次数时所占的比例,具体取值可根据实际需要进行设置;因为待检测视频片段的复杂程度越大,说明视频中可感知的信息越多,应当聚合更多次。
本实施例根据任一两个节点之间的权重以及自适应迭代次数,对关键点时空共现图中各节点进行多次聚合操作,最终得到该注意力层中各节点对应的目标位置向量。
每一层采用不同的权重矩阵来进行多次聚合操作;根据每一层注意力机制得到各节点对应的目标位置向量;然后根据每一层注意力机制得到各节点对应的目标位置向量,计算经过多头注意力机制得到的各节点对应的特征向量:
Figure DEST_PATH_IMAGE064
其中,
Figure DEST_PATH_IMAGE065
为节点i对应的特征向量,
Figure DEST_PATH_IMAGE066
是激活函数(即sigmoid激活函数),
Figure DEST_PATH_IMAGE067
为第h层注意力机制中节点i对应的邻域节点集合中的节点j对应的目标位置向量,H为多头注意力层包括的注意力机制的数量。本实施例中的相似度向量和每层注意力机制使用的权重矩阵中元素的取值可由神经网络训练得到。本实施例中多头注意力机制为现有技术,具体不再赘述。
本实施例根据关键点时空共现图中每个时刻对应的各节点对应的特征向量,得到每个时刻对应的目标特征向量,对于任一时刻:
将关键点时空共现图中该时刻的7个节点对应的特征向量按顺序排列,构建第一特征序列;同样将该时刻的下一时刻的7个节点对应的特征向量按顺序排列,构建第二特征序列;将该时刻的上一时刻的7个节点对应的特征向量按顺序排列,构建第三特征序列。最后在将第三特征序列、第一特征序列和第二特征序列按时间顺序拼接在一起,得到该时刻对应的目标特征向量。综上所述,可得到目标时间段内各时刻对应的目标特征向量。具体的拼接方法可根据需要进行选择。
最后将图注意力网络输出得到的各时刻对应的目标特征向量作为多层感知器MLP的输入,进而基于该多层感知器MLP输出目标对象在对应时刻下的进食状态,所述进食状态包括进食中、挑食、观望、抽搐和其他,具体可根据实际需要来调整。本实施例中训练进食状态识别网络的过程(即训练图注意力网络和多层感知器的过程)为现有技术,在此就不再赘述。
至此,可以得到目标时间段内各时刻下目标对象的进食状态,进而根据目标对象的进食状态来监测目标对象的进食是否异常,进而做出相应的应对措施。
本实施例结合相关的电子设备进行图像识别得到各时刻对应的第一进食图像和第二进食图像,进而根据第一进食图像和第二进食图像,得到各时刻下目标对象的各关键点对应的位置向量、目标对象对应的重要程度和待分析视频片段对应的复杂程度;为了便于结合不同时刻目标对象的关键点来分析对应的进食状态,本实施例根据各时刻下目标对象的各关键点对应的位置向量,构建关键点时空共现图;最终将关键点时空共现图、所述各时刻下目标对象的重要程度和所述待分析述视频片段对应的复杂程度输入到训练好的进食状态识别网络中,得到目标时间段内目标对象的进食状态。本实施例对实时拍摄到的家禽进食的视频数据进行分析,通过视频数据中的多帧图像中家禽的各个关键点的位置变化情况,来对家禽进食状态进行自动化的判断,实现了对家禽进食情况的实时判断。
需要说明的是:以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于数据处理的畜牧家禽进食异常识别方法,其特征在于,该方法包括以下步骤:
获取目标对象在目标时间段内的待分析视频片段;所述待分析视频片段包括第一视频片段和第二视频片段,第一视频片段和第二视频片是在不同视角下拍摄的视频,第一视频片段包括各时刻对应的第一进食图像,第二视频片段包括各时刻对应的第二进食图像;根据各时刻对应的第一进食图像中目标对象的各关键点的坐标和各时刻对应的第二进食图像中目标对象的各关键点的坐标,得到各时刻下目标对象的各关键点对应的位置向量;
根据各时刻对应的第一进食图像和第二进食图像,得到各时刻对应的各方向的光流图;根据各时刻对应的各方向的光流图,得到各时刻下目标对象的重要程度,包括:
对于任一时刻:利用光流算法对该时刻对应的第一进食图像和上一时刻对应的第一进食图像进行处理,得到该时刻对应的光流图,记为第一光流图;利用光流算法对该时刻对应的第二进食图像和上一时刻的对应第二进食图像进行处理,得到该时刻对应的光流图,记为第二光流图;分别将该时刻对应的第一光流图和第二光流图进行拆分,得到该时刻对应的各方向的光流图;所述各方向包括第一进食图像的水平方向和竖直方向和第二进食图像的水平方向和竖直方向;提取该时刻对应的各方向的光流图中的连通域;分别选取各光流图中面积最大的连通域,记为目标连通域;根据该时刻对应的各光流图中目标连通域的最小外接矩形的长和宽,计算该时刻对应的各光流图对应的动作幅度指标;根据该时刻对应的各光流图对应的动作幅度指标,计算该时刻下目标对象的重要程度;
所述计算该时刻对应的各光流图对应的动作幅度指标的公式如下:
Figure DEST_PATH_IMAGE002
其中,
Figure DEST_PATH_IMAGE003
为第t个时刻对应的x轴方向上的光流图对应的动作幅度指标,
Figure DEST_PATH_IMAGE004
为x轴方向上的光流图对应的目标连通域的长,
Figure DEST_PATH_IMAGE005
为x轴方向上的光流图对应的目标连通域的宽,
Figure DEST_PATH_IMAGE006
为第i个光流图对应的目标连通域内像素点的总数量,
Figure DEST_PATH_IMAGE007
为第i个光流图对应的目标连通域内第a个像素点的灰度值,
Figure DEST_PATH_IMAGE008
为最大值;
根据各时刻下目标对象的重要程度,得到所述待分析视频片段对应的复杂程度;
根据各时刻下目标对象的各关键点对应的位置向量,构建待分析视频片段对应的关键点时空共现图;所述关键点时空共现图中每个节点对应一个时刻下目标对象的一个关键点;根据关键点时空共现图、所述各时刻下目标对象的重要程度、所述待分析视频片段对应的复杂程度和训练好的进食状态识别网络,得到目标时间段内目标对象的进食状态。
2.根据权利要求1所述的一种基于数据处理的畜牧家禽进食异常识别方法,其特征在于,所述根据各时刻对应的第一进食图像中目标对象的各关键点的坐标和各时刻对应的第二进食图像中目标对象的各关键点的坐标,得到各时刻下目标对象的各关键点对应的位置向量,包括:
所述第一进食图像中目标对象的各关键点是将第一进食图像输入到训练好的鸡身关键点检测网络中得到的;所述二进食图像中目标对象的各关键点是将第二进食图像输入到训练好的鸡身关键点检测网络中得到的;
对于任一时刻下目标对象的任一关键点对应的位置向量:
根据该关键点在该时刻对应的第一进食图像中的坐标和在该时刻对应的第二进食图像中的坐标,得到该时刻下目标对象的该关键点对应的位置向量。
3.根据权利要求1所述的一种基于数据处理的畜牧家禽进食异常识别方法,其特征在于,所述计算该时刻下目标对象的重要程度的公式如下:
Figure DEST_PATH_IMAGE010
其中,
Figure DEST_PATH_IMAGE011
为第t个时刻下目标对象的重要程度,
Figure DEST_PATH_IMAGE012
为第t个时刻对应的y轴方向上的光流图对应的动作幅度指标,
Figure DEST_PATH_IMAGE013
为第t个时刻对应的q轴方向上的光流图对应的动作幅度指标,
Figure DEST_PATH_IMAGE014
为第t个时刻对应的z轴方向上的光流图对应的动作幅度指标,
Figure DEST_PATH_IMAGE015
为第一关注权重,
Figure DEST_PATH_IMAGE016
为第二关注权重,
Figure DEST_PATH_IMAGE017
为第三关注权重,
Figure DEST_PATH_IMAGE018
为第四关注权重。
4.根据权利要求1所述的一种基于数据处理的畜牧家禽进食异常识别方法,其特征在于,根据各时刻下目标对象的重要程度,得到所述待分析视频片段对应的复杂程度的公式如下:
Figure DEST_PATH_IMAGE020
其中,
Figure DEST_PATH_IMAGE021
为待分析视频片段的复杂程度,
Figure DEST_PATH_IMAGE022
为目标时间段内各时刻下目标对象对应的重要程度的均值,
Figure DEST_PATH_IMAGE023
为目标时间段内各时刻的数量,
Figure DEST_PATH_IMAGE024
为目标时间段内各时刻下目标对象对应的重要程度的集合,
Figure DEST_PATH_IMAGE025
为最大值,
Figure 259651DEST_PATH_IMAGE011
为第t个时刻下目标对象的重要程度。
5.根据权利要求1所述的一种基于数据处理的畜牧家禽进食异常识别方法,其特征在于,根据各时刻下目标对象的各关键点对应的位置向量,构建待分析视频片段对应的关键点时空共现图,包括:
以各时刻下目标对象的各关键点为关键点时空共现图的各节点,所述各节点的值为对应关键点对应的位置向量;
使同一时刻下目标对象的各关键点对应的节点进行相连,构成对应时刻下的鸡身形态;将各时刻下目标对象的相同的关键点对应的节点按照时间顺序相连,得到待分析视频片段对应的关键点时空共现图。
6.根据权利要求1所述的一种基于数据处理的畜牧家禽进食异常识别方法,其特征在于,根据关键点时空共现图、所述各时刻下目标对象的重要程度、所述待分析述视频片段对应的复杂程度和训练好的进食状态识别网络,得到目标时间段内目标对象的进食状态,包括:
所述进食状态识别网络包括图注意力网络和多层感知器;所述图注意力网络基于多头注意力机制来对输入的数据进行处理;
对于任一层注意力机制:根据关键点时空共现图中各节点对应的位置向量和各时刻下目标对象对应的重要程度,计算各节点与对应的邻域节点集合中的各节点之间的权重;根据自定义迭代次数和各节点与对应的邻域节点集合中的各节点之间的权重,对各节点进行多次聚合更新,得到该层注意力机制中各节点对应的目标位置向量;所述邻域节点集合包括关键点时空共现图中与对应节点相连的各节点;
根据每一层注意力机制得到各节点对应的目标位置向量,计算经过多头注意力机制得到的各节点对应的特征向量;
根据关键点时空共现图中每个时刻对应的各节点对应的特征向量,得到每个时刻对应的目标特征向量;
将各时刻对应的目标特征向量输入到多层感知器中,得到目标对象在对应时刻下的进食状态。
7.根据权利要求6所述的一种基于数据处理的畜牧家禽进食异常识别方法,其特征在于,所述计算任意两个节点之间的权重的公式为:
Figure DEST_PATH_IMAGE027
其中,
Figure DEST_PATH_IMAGE028
为关键点时空共现图中节点i与节点j之间的权重,
Figure DEST_PATH_IMAGE029
为向量拼接操作,
Figure DEST_PATH_IMAGE030
为激活函数,
Figure DEST_PATH_IMAGE031
为节点j对应的时刻下目标对象对应的重要程度,
Figure DEST_PATH_IMAGE032
为第一权值,
Figure DEST_PATH_IMAGE033
是相似度向量,
Figure DEST_PATH_IMAGE034
为相似度向量的转置,
Figure DEST_PATH_IMAGE035
为关键点时空共现图中节点i对应的位置向量,
Figure DEST_PATH_IMAGE036
为关键点时空共现图中节点i对应的邻域节点集合中的节点j对应的位置向量,
Figure DEST_PATH_IMAGE037
为权重矩阵,
Figure DEST_PATH_IMAGE038
为节点i对应的邻域节点集合;
所述自定义迭代次数的计算公式为:
Figure DEST_PATH_IMAGE040
其中,
Figure DEST_PATH_IMAGE041
为自适应迭代次数,
Figure DEST_PATH_IMAGE042
为最少迭代次数,
Figure DEST_PATH_IMAGE043
是比例参数,
Figure 359762DEST_PATH_IMAGE021
为待分析视频片段的复杂程度。
8.根据权利要求6所述的一种基于数据处理的畜牧家禽进食异常识别方法,其特征在于,根据关键点时空共现图中每个时刻对应的各节点对应的特征向量,得到每个时刻对应的目标特征向量,包括:
对于任一时刻:
将关键点时空共现图中该时刻的各节点对应的特征向量按顺序排列,构建第一特征序列;
将关键点时空共现图中该时刻的下一时刻的各节点对应的特征向量按顺序排列,构建第二特征序列;
将关键点时空共现图中该时刻的上一时刻的各节点对应的特征向量按顺序排列,构建第三特征序列;
将第三特征序列、第一特征序列和第二特征序列按时间顺序拼接在一起,得到该时刻对应的目标特征向量。
CN202211198552.9A 2022-09-29 2022-09-29 一种基于数据处理的畜牧家禽进食异常识别方法 Active CN115272943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211198552.9A CN115272943B (zh) 2022-09-29 2022-09-29 一种基于数据处理的畜牧家禽进食异常识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211198552.9A CN115272943B (zh) 2022-09-29 2022-09-29 一种基于数据处理的畜牧家禽进食异常识别方法

Publications (2)

Publication Number Publication Date
CN115272943A CN115272943A (zh) 2022-11-01
CN115272943B true CN115272943B (zh) 2022-12-23

Family

ID=83756943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211198552.9A Active CN115272943B (zh) 2022-09-29 2022-09-29 一种基于数据处理的畜牧家禽进食异常识别方法

Country Status (1)

Country Link
CN (1) CN115272943B (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401177B (zh) * 2020-03-09 2023-04-07 山东大学 基于自适应时空注意力机制的端到端行为识别方法及系统
CN112434608B (zh) * 2020-11-24 2023-02-28 山东大学 一种基于双流结合网络的人体行为识别方法及系统
CN112800903B (zh) * 2021-01-19 2022-08-26 南京邮电大学 一种基于时空图卷积神经网络的动态表情识别方法及系统
CN113673307B (zh) * 2021-07-05 2024-03-29 浙江工业大学 一种轻量型的视频动作识别方法

Also Published As

Publication number Publication date
CN115272943A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
Zhou et al. Evaluation of fish feeding intensity in aquaculture using a convolutional neural network and machine vision
Zhuang et al. Detection of sick broilers by digital image processing and deep learning
Zheng et al. Automatic recognition of lactating sow postures from depth images by deep learning detector
Fang et al. Comparative study on poultry target tracking algorithms based on a deep regression network
Yang et al. Automatic recognition of sow nursing behaviour using deep learning-based segmentation and spatial and temporal features
Li et al. Deep cascaded convolutional models for cattle pose estimation
Nilsson et al. Development of automatic surveillance of animal behaviour and welfare using image analysis and machine learned segmentation technique
EP3789934A1 (en) Method for calculating deviation relations of a population
Zhang et al. Design of sick chicken automatic detection system based on improved residual network
Yang et al. Automated video analysis of sow nursing behavior based on fully convolutional network and oriented optical flow
Geffen et al. A machine vision system to detect and count laying hens in battery cages
CN109472883A (zh) 巡塘方法和装置
CN112101259A (zh) 一种基于堆叠沙漏网络的单只猪体姿态识别系统及方法
CN114898405B (zh) 基于边缘计算的便携式肉鸡异常监测系统
CN108460370B (zh) 一种固定式家禽生命信息报警装置
CN115861721B (zh) 基于图像数据的畜禽养殖喷雾设备状态识别方法
Long et al. Automatic classification of cichlid behaviors using 3D convolutional residual networks
Mosley et al. Image-based sorghum head counting when you only look once
Yang et al. A defencing algorithm based on deep learning improves the detection accuracy of caged chickens
Muñoz-Benavent et al. Impact evaluation of deep learning on image segmentation for automatic bluefin tuna sizing
Zhu et al. Automated chicken counting using yolo-v5x algorithm
CN115272943B (zh) 一种基于数据处理的畜牧家禽进食异常识别方法
Evangelista et al. Detection of japanese quails (coturnix japonica) in poultry farms using yolov5 and detectron2 faster r-cnn
Liu et al. Research progress of computer vision technology in abnormal fish detection
CN111160422A (zh) 一种采用卷积神经网络和长短期记忆检测群养猪攻击行为的分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A data processing based method for identifying abnormal eating habits in livestock and poultry

Effective date of registration: 20231214

Granted publication date: 20221223

Pledgee: Nantong Jiangsu rural commercial bank Limited by Share Ltd.

Pledgor: NANTONG SHUANGHE FOOD Co.,Ltd.

Registration number: Y2023980071176