CN115424292A - 基于改进YOLOX与DeepSORT的鱼群跟踪方法 - Google Patents

基于改进YOLOX与DeepSORT的鱼群跟踪方法 Download PDF

Info

Publication number
CN115424292A
CN115424292A CN202210902846.9A CN202210902846A CN115424292A CN 115424292 A CN115424292 A CN 115424292A CN 202210902846 A CN202210902846 A CN 202210902846A CN 115424292 A CN115424292 A CN 115424292A
Authority
CN
China
Prior art keywords
model
yolox
matching
target
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210902846.9A
Other languages
English (en)
Inventor
薛月菊
区铭强
郑婵
王峡锐
李程鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Agricultural University
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN202210902846.9A priority Critical patent/CN115424292A/zh
Publication of CN115424292A publication Critical patent/CN115424292A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进YOLOX与DeepSORT的鱼群跟踪方法,包括:获取视频数据,并使用阈值分割的方法进行辅助标注得到训练的数据集;对数据集进行数据增强,并训练YOLOX模型、判断遮挡的二分类模型CNNocc与ReID模型,同时将YOLOX模型的推理阶段改为Soft‑NMS;根据限定的鱼群数量初始化特征集,利用DeepSORT来保存外观特征与位置信息,将YOLOX模型的检测结果送入DeepSORT进行两阶段的目标匹配,经过两阶段的目标匹配后输出当前帧的跟踪结果,并在更新阶段中采取自适应更新特征集策略更新目标特征集。本发明可有效实现鱼群多目标跟踪,克服传统人工监测方式耗时、耗力的缺点。

Description

基于改进YOLOX与DeepSORT的鱼群跟踪方法
技术领域
本发明涉及目标识别与多目标跟踪的技术领域,尤其是指一种基于改进YOLOX与DeepSORT的鱼群跟踪方法。
背景技术
鱼类行为学是一种基础性研究,其行为特征对鱼类的繁育、养殖、环境监测等有着重要的指示作用。其中游泳行为是鱼类行为学研究一项重要内容,同时也是鱼类在水体中重要的生命活动之一,对鱼类的洄游、索饵、繁殖及逃避敌害等均具有重要生物学意义(钟金鑫等,2013),同时鱼类游泳习性对其养殖模式和养殖设施规格的选择具有重要指导意义。而目前,研究游泳行为主要依靠人工统计为主,由于鱼群游动速度快且鱼群间会出现遮挡现象会对人工统计有很大干扰,费时费力,导致人工统计效率低、准确率不高;并且人工观察并不能精准地量化鱼的游泳速度等行为参数,也会一定程度会干扰鱼的行为,导致统计结果存在较大误差。
目前在鱼群跟踪方法中,公开号CN106529434A专利基于视觉注意力模型进行鱼群个体目标跟踪。公开号CN103955688A专利通过极值检测和局部区域椭圆拟合对鱼头区域进行定位和相关参数估算,然后结合卡尔曼预测和特征匹配对鱼群进行跟踪。
在实验室环境中,空间较小,鱼群会存在集群行为,鱼群间容易发生遮挡,导致在跟踪过程中存在目标ID大量互换的情况,而且现有的方法比较依赖阈值分割等传统方法,跟踪精度并不高,因此针对跟踪鱼群遇到的问题,DeepSORT的跟踪算法基础上设计了一种基于改进YOLOX与DeepSORT的鱼群跟踪方法,提出了公平匹配及自适应特征更新策略,提高了在实验室环境中鱼群的跟踪精度。
发明内容
本发明的目的在于减轻研究员的劳动强度,精准地量化鱼群的行为参数,提出了一种基于改进YOLOX与DeepSORT的鱼群跟踪方法,其考虑了俯拍时鱼群集群行为带来的遮挡问题,对遮挡的情况在YOLOX模型采用Soft-NMS方法提高遮挡场景下的召回率;并在DeepSORT目标匹配时采取公平匹配策略替代级联匹配,忽略取决于遮挡时间长短的轨迹优先级匹配,使得在固定数量的场景下轨迹与目标同一优先级公平匹配;在更新阶段采取自适应特征更新策略对轨迹特征集选择性更新,保证特征集中特征的独立性,既提高了遮挡情况下ID的准确率,又减少了跟踪的IDswitch。
为实现上述目的,本发明所提供的技术方案为:基于改进YOLOX与DeepSORT的鱼群跟踪方法,包括以下步骤:
S1、获取视频数据,并使用阈值分割的方法进行辅助标注得到训练的数据集;
S2、对数据集进行数据增强,并训练YOLOX模型、判断遮挡的二分类模型CNNocc与ReID模型,同时将YOLOX模型的推理阶段改为Soft-NMS;
S3、根据限定的鱼群数量初始化特征集,利用DeepSORT来保存外观特征与位置信息;将YOLOX模型的检测结果送入DeepSORT进行两阶段的目标匹配,第一阶段是采用了公平匹配策略的外观特征匹配,第二阶段是IoU匹配,其中,所述公平匹配策略的外观特征匹配是由ReID模型提取外观特征后将特征与特征集所保存的外观特征进行同一优先级匹配;经过两阶段的目标匹配后输出当前帧的跟踪结果,并在更新阶段中采取自适应更新特征集策略更新目标特征集,其中,所述自适应更新特征集策略是利用CNNocc判断目标是否存在遮挡现象并选择是否更新至特征集上。
进一步,所述步骤S1具体步骤如下:
S11、使用一个能够容纳实验箱的大纸皮箱,实验箱上方架设横杠供摄像头以俯拍视角拍摄实验箱中鱼群,为了提供稳定均匀的光源,需要在摄像头上方架设LED白光灯,并在LED白光灯与摄像头之间放入柔光纸发散光线;
S12、借助海康威视摄像头获取俯拍实验箱的视频,采集的数据包括全天24小时的鱼群活动视频数据;
S13、在视频数据中随机裁剪视频片段构建数据集;
S14、对于数据集中图像,使用二值化阈值分割算法将鱼群与背景分割后得到二值化矩阵,利用OpenCV开源计算机开源视觉库中计算二值化矩阵的连通域算法得到连通域,其中连通域即为一片连通的区域;将连通域的外接矩形作为鱼的包围框,最后保存成YOLO格式,并使用LabelImg标注工具对鱼群交叉这难分割开的数据进行人工纠正。
进一步,在步骤S2中,所述YOLOX模型是选用Anchor-Free的目标检测算法YOLOX作为鱼类的检测模型,采用学习率Warmup策略和Mosaic、Mixup数据增强的方法提高模型的精度,并使用Soft-NMS替换掉NMS,以提高遮挡情况下模型的召回率;所述判断遮挡的分类模型CNNocc使用Resnet-18作为基础网络,并使用Copy-Paste的数据增强方法增加遮挡的样本数;所述ReID模型以Resnet-18作为基础网络,使用旋转、翻折的数据增强提高模型的精度。
进一步,在步骤S3中,假定在实验箱中有N条鱼,限制DeepSORT最多只能存在N条轨迹,在目标匹配的第一阶段,将级联匹配替换为公平匹配策略,即ReID模型会提取当前帧B个目标的外观特征向量,将N条轨迹的特征集与B个外观特征向量进行余弦距离计算,得到N*B代价矩阵后进行匈牙利算法分配目标与对应的轨迹;在目标匹配的第二阶段,对第一阶段没匹配成功的轨迹与目标进行IoU匹配,对B个目标与上一帧所保存的位置信息计算IoU矩阵,再使用匈牙利算法对IOU矩阵进行目标分配;
在目标更新阶段,设置一个阈值参数T,计算检测框两两间的IoU得到矩阵MIoU,在MIoU找出IoU>T的检测框,利用CNNocc判断检测框内是否存在遮挡,若不存在,则令其特征更新至轨迹特征集上,反之,则舍弃。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明利用机器学习的方法实现鱼群多目标跟踪,克服传统人工监测方式耗时、耗力的缺点。
2、本发明通过计算鱼群跟踪轨迹对游泳行为等进行量化,可以获取高精度的行为信息并为科研人员提供理论数据支撑。
3、本发明提出了利用阈值分割辅助标注的方法进行数据标注,大大地减少了标注的工作量,节省时间。
4、本发明提出了将改进YOLOX与DeepSORT结合起来的多目标跟踪框架,用以针对固定目标数量的场景下提高了跟踪精度,该框架具有通用性,可用于不同鱼群自动跟踪。
5、本发明提出了在目标更新的阶段,利用CNNocc判断鱼群遮挡的方法以保持目标更新的外观特征集的独立性,大幅降低了ID交换频率与次数,为探索鱼群的高精度多目标跟踪及其精准量化行为方法提供了新思路。
附图说明
图1为本发明方法逻辑流程示意图。
图2为本发明制作数据集流程图。
图3为本发明算法设计图。
图4是改进前与改进后视频帧的结果对比图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
参见图1所示,本实施例提供了一种基于改进YOLOX与DeepSORT的鱼群跟踪方法,该方法可解决鱼群聚集时给跟踪带来的困难,以实现鱼群多目标跟踪高精度跟踪,减轻研究员的劳动强度,精准地量化鱼群的行为参数。该方法基于Ubuntu16.04操作系统开发,在Pytorch深度学习框架平台使用Nvidia GeForce RTX 980Ti GPU对模型进行训练与测试,其具体实现步骤如下:
S1、架设拍摄环境和设备,采集鱼群实验期间的片段,包括以下步骤:
S11、使用一个可以容纳实验箱的大纸皮箱,实验箱上方架设横杠供摄像头以俯拍视角拍摄实验箱中鱼群;为了提供稳定均匀的光源,需要在摄像头上方架设LED白光灯,并在LED白光灯与摄像头之间放入柔光纸发散光线;
S12、分六组实验同时进行,采用海康威视摄像头在同一高度对实验箱进行俯拍,分别获取六组包含了四条不同食性的实验鱼的视频,视频帧分辨率为1920*1080像素,帧率为25帧/秒。
S2、使用阈值分割算法辅助标注鱼体,制作数据集,具体如下:
S21、将视频随机裁剪选取20个片段,其中选取13个片段,每段15秒,作为测试集,其余作为模型的训练集;
S22、使用二值化阈值分割算法将鱼群与背景分割后得到二值化矩阵,见图2中a所示,利用OpenCV开源计算机开源视觉库中计算二值化矩阵的连通域算法得到连通域,见图2中b所示,连通域即为一片连通的区域;将连通域的外接矩形作为鱼的包围框,见图2中c所示,最后保存成YOLO格式,并使用LabelImg标注工具对鱼群交叉等较难分割开的数据进行人工纠正。
S23、使用Copy-Paste进行数据扩增,将S22中阈值分割后的图像中随机选取一条鱼的掩膜,经过随机旋转、翻折后粘贴到另一条鱼上,达到增加交叉遮挡复杂样本的目的。
S3、训练YOLOX模型、判断遮挡的二分类模型CNNocc与ReID模型,同时将YOLOX模型的推理阶段改为Soft-NMS,具体如下:
本方法在Ubuntu16.04操作系统下,基于NvIDia GTX 980Ti的GPU硬件平台上搭建Pytorch深度学习框架训练YOLOX模型、CNNocc、ReID模型;
a、CNNocc使用Resnet-18作为基础网络,在已标注的包围框中筛选裁剪出存在IoU的包围框图像,再通过人工判断包围框内图像是否遮挡情况,遮挡情况则标记该图像为“1”,否则标记为“0”。
b、YOLOX模型训练
为了平衡速度与精度,选用Anchor-Free的目标检测算法YOLOX作为鱼类的检测模型,并在训练阶段使用Mixup、Mosaic等数据增强方法,模型训练200个Epoch。
在遮挡情况下,检测框有大部分的重叠,使用非极大抑制(NMS)会将检测框重叠大于重叠阈值K的检测框抑制,导致了遮挡情况下检测框重叠度高的鱼漏检,为了提高检测的召回率,提高跟踪精度,在YOLOX模型推理阶段将NMS替换成Soft-NMS,Soft-NMS会在非极大抑制的同时考虑得分和边框之间的重合程度,提高遮挡情况下模型的召回率。其中边框重叠度IoU、Soft-NMS计算公式如下:
Figure BDA0003771530760000061
Figure BDA0003771530760000071
其中,BP与BQ表示包围框P、Q的面积,si表示第i个检测框置信度得分,K表示设置的重叠阈值。
c、ReID模型训练
以Resnet-18作为基础网络训练,使用旋转、翻折等数据增强提高模型的精度。
S4、根据限定的鱼群数量初始化特征集,利用DeepSORT来保存外观特征与位置信息;如图3所示,将YOLOX模型的检测结果送入DeepSORT进行两阶段的目标匹配,第一阶段是采用了公平匹配策略的外观特征匹配,第二阶段是IoU匹配,其中,所述公平匹配策略的外观特征匹配是由ReID模型提取外观特征后将特征与特征集所保存的外观特征进行同一优先级匹配;经过两阶段的目标匹配后输出当前帧的跟踪结果,并在更新阶段中采取自适应更新特征集策略更新目标特征集,其中,所述自适应更新特征集策略是利用CNNocc判断目标是否存在遮挡现象并选择是否更新至特征集上。
在实验室环境中,鱼群数量是已知且可控的变量,可作为先验条件;假定在实验箱中有N条鱼,限制DeepSORT最多只能存在N条轨迹,在目标匹配的第一阶段,将级联匹配替换为公平匹配策略,即ReID模型会提取当前帧B个目标的外观特征向量,将N条轨迹的特征集与B个外观特征向量进行余弦距离计算,得到N*B代价矩阵后进行匈牙利算法分配目标与对应的轨迹;在目标匹配的第二阶段,对第一阶段没匹配成功的轨迹与目标进行IoU匹配,对B个目标与上一帧所保存的位置信息计算IoU矩阵,再使用匈牙利算法对IOU矩阵进行目标分配。
由于鱼群会出现交叉交叠等遮挡场景,在遮挡场景下目标更新会出现两条或多条鱼的外观特征,当更新其外观特征会使得破坏了轨迹中的特征集独立性,导致后续会在目标匹配阶段造成目标匹配时计算相似度矩阵带来干扰;考虑到这种情况下采用自适应更新特征集策略:在目标更新阶段,设置一个阈值参数T,计算检测框两两间的IoU得到矩阵MIoU,在MIoU找出IoU>T的检测框,利用CNNocc判断检测框内是否存在遮挡,若不存在,则令其特征更新至轨迹特征集上,反之,则舍弃。
步骤S4的具体步骤过程如下:
S41、采取公平匹配策略进行目标匹配,首先需要进行人工观察获取鱼群数量N,限定DeepSORT存在N组Track进行目标匹配。将每帧检测结果与N组Track进行目标匹配,该匹配过程是使用ReID模型提取当前每一个检测框的外观外观特征向量,与这N组Track所保存的特征集计算外观外观特征向量的余弦距离最小值得到外观特征矩阵Cos_cost_matrix,其中余弦距离是一种用来衡量不同个体间的相似程度的相似度计算方法,余弦距离越小表示两者间越相似。其中余弦距离计算公式如下:
Figure BDA0003771530760000081
式中,A,B表示两个体间外观特征向量,θ为余弦角度。
在Cos_cost_matrix中,进行运动信息的筛选,对于每个Track,利用卡尔曼滤波器根据上一帧跟踪框信息预测当前帧的跟踪框与当前帧的检测框计算两者间马氏距离,对于马氏距离超于设定阈值则将Cos_cost_matrix对应元素置为无穷大,最终经过运动信息筛选后得到Cost_matrix。Cost_matrix作为匈牙利算法的输入,得到Track和检测目标结果的匹配结果。
S42、对于上一步没有匹配成功的Track和检测结果通过计算预测框与检测框位置信息计算IoU矩阵,对于IoU矩阵中元素大于设置的阈值时,对应位置的IoU矩阵的元素也置为无穷大后,再次进行匈牙利算法匹配。
S43、将S41、S42的结果相加得到最后目标匹配结果。
S44、根据IoU矩阵和判断遮挡的二分类模型CNNocc的自适应目标更新策略对每个Track的特征集进行更新,具体方式如下:在IoU矩阵中筛选出IoU>T的两两检测框,将检测框内的图像输入到判断遮挡的二分类模型CNNocc中,模型输出判断是否有遮挡情况,判断为有遮挡则不更新其外观特征,若判断为无遮挡,更新其外观特征至对应的Track的特征集。
S45、循环上述S41-S44,直到视频最后一帧。
改进对比如图4所示,图4中a、c左上角表示跟踪过程中的两帧间的遮挡情况,如图4中b所示,在遮挡后会发生IDswitch的情况;本发明在遮挡情况下可以保证Track特征集的独立性,提高个体跟踪精度,如图4中d所示,本发明能很好地解决粘连遮挡后IDswitch问题。因此,本发明可以保证每条鱼ID准确稳定地进行跟踪。
下面详细说明本发明上述鱼群跟踪方法的实验结果:
本发明采用常用的4个评价指标对测试集的检测结果进行统计,分别为准确率P(Precision)、召回率R(Recall)、身份识别F1值IDF1(Identification F1-Score)、多目标跟踪准确率MOTA(Multiple Object Tracking Accuracy),其公式定义如公式(1)-(4)所示:
Figure BDA0003771530760000091
Figure BDA0003771530760000092
Figure BDA0003771530760000093
Figure BDA0003771530760000101
式中,TP(True Positive)为图像中目标被模型预测为正的正样本个数,FP(FalsePositive)为图像中目标被模型预测为正的负样本个数,FN(False Negative)为图像中目标被模型预测为正的负样本个数,IDTP为跟踪框中真正的ID数,IDFN为跟踪框中假负的ID数,IDFP为跟踪框中假正的ID数。
采用上述公式对测试集进行计算,统计结果如表1所示。
基准的DeepSORT方法和本发明提出的方法对比结果如下表1所示,相比基准的DeepSORT方法,本发明提出的方法检测效果更好,跟踪准确率更高。
表1结果对比
方法 Precision Recall↑ IDF<sub>1</sub>↑ MOTA↑
基准的DeepSORT 99.8 99.2 93.3 98.8
本发明 99.8 99.7 99.5 99.3
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.基于改进YOLOX与DeepSORT的鱼群跟踪方法,其特征在于,包括以下步骤:
S1、获取视频数据,并使用阈值分割的方法进行辅助标注得到训练的数据集;
S2、对数据集进行数据增强,并训练YOLOX模型、判断遮挡的二分类模型CNNocc与ReID模型,同时将YOLOX模型的推理阶段改为Soft-NMS;
S3、根据限定的鱼群数量初始化特征集,利用DeepSORT来保存外观特征与位置信息;将YOLOX模型的检测结果送入DeepSORT进行两阶段的目标匹配,第一阶段是采用了公平匹配策略的外观特征匹配,第二阶段是IoU匹配,其中,所述公平匹配策略的外观特征匹配是由ReID模型提取外观特征后将特征与特征集所保存的外观特征进行同一优先级匹配;经过两阶段的目标匹配后输出当前帧的跟踪结果,并在更新阶段中采取自适应更新特征集策略更新目标特征集,其中,所述自适应更新特征集策略是利用CNNocc判断目标是否存在遮挡现象并选择是否更新至特征集上。
2.根据权利要求1所述的基于改进YOLOX与DeepSORT的鱼群跟踪方法,其特征在于,所述步骤S1具体步骤如下:
S11、使用一个能够容纳实验箱的大纸皮箱,实验箱上方架设横杠供摄像头以俯拍视角拍摄实验箱中鱼群,为了提供稳定均匀的光源,需要在摄像头上方架设LED白光灯,并在LED白光灯与摄像头之间放入柔光纸发散光线;
S12、借助海康威视摄像头获取俯拍实验箱的视频,采集的数据包括全天24小时的鱼群活动视频数据;
S13、在视频数据中随机裁剪视频片段构建数据集;
S14、对于数据集中图像,使用二值化阈值分割算法将鱼群与背景分割后得到二值化矩阵,利用OpenCV开源计算机开源视觉库中计算二值化矩阵的连通域算法得到连通域,其中连通域即为一片连通的区域;将连通域的外接矩形作为鱼的包围框,最后保存成YOLO格式,并使用LabelImg标注工具对鱼群交叉这难分割开的数据进行人工纠正。
3.根据权利要求1所述的基于改进YOLOX与DeepSORT的鱼群跟踪方法,其特征在于,在步骤S2中,所述YOLOX模型是选用Anchor-Free的目标检测算法YOLOX作为鱼类的检测模型,采用学习率Warmup策略和Mosaic、Mixup数据增强的方法提高模型的精度,并使用Soft-NMS替换掉NMS,以提高遮挡情况下模型的召回率;所述判断遮挡的分类模型CNNocc使用Resnet-18作为基础网络,并使用Copy-Paste的数据增强方法增加遮挡的样本数;所述ReID模型以Resnet-18作为基础网络,使用旋转、翻折的数据增强提高模型的精度。
4.根据权利要求1所述的基于改进YOLOX与DeepSORT的鱼群跟踪方法,其特征在于,在步骤S3中,假定在实验箱中有N条鱼,限制DeepSORT最多只能存在N条轨迹,在目标匹配的第一阶段,将级联匹配替换为公平匹配策略,即ReID模型会提取当前帧B个目标的外观特征向量,将N条轨迹的特征集与B个外观特征向量进行余弦距离计算,得到N*B代价矩阵后进行匈牙利算法分配目标与对应的轨迹;在目标匹配的第二阶段,对第一阶段没匹配成功的轨迹与目标进行IoU匹配,对B个目标与上一帧所保存的位置信息计算IoU矩阵,再使用匈牙利算法对IOU矩阵进行目标分配;
在目标更新阶段,设置一个阈值参数T,计算检测框两两间的IoU得到矩阵MIoU,在MIoU找出IoU>T的检测框,利用CNNocc判断检测框内是否存在遮挡,若不存在,则令其特征更新至轨迹特征集上,反之,则舍弃。
CN202210902846.9A 2022-07-29 2022-07-29 基于改进YOLOX与DeepSORT的鱼群跟踪方法 Pending CN115424292A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210902846.9A CN115424292A (zh) 2022-07-29 2022-07-29 基于改进YOLOX与DeepSORT的鱼群跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210902846.9A CN115424292A (zh) 2022-07-29 2022-07-29 基于改进YOLOX与DeepSORT的鱼群跟踪方法

Publications (1)

Publication Number Publication Date
CN115424292A true CN115424292A (zh) 2022-12-02

Family

ID=84195970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210902846.9A Pending CN115424292A (zh) 2022-07-29 2022-07-29 基于改进YOLOX与DeepSORT的鱼群跟踪方法

Country Status (1)

Country Link
CN (1) CN115424292A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115631402A (zh) * 2022-12-22 2023-01-20 联通(四川)产业互联网有限公司 一种适用于智慧养殖的ai算法服务平台构建方法
CN115880646A (zh) * 2023-02-20 2023-03-31 中国民航大学 一种飞机入离位状态识别方法
CN116363494A (zh) * 2023-05-31 2023-06-30 睿克环境科技(中国)有限公司 一种鱼类数量监测、洄游跟踪的方法和系统
CN116452967A (zh) * 2023-06-16 2023-07-18 青岛励图高科信息技术有限公司 基于机器视觉的鱼游动速度识别方法
CN116819540A (zh) * 2023-05-09 2023-09-29 南京俊禄科技有限公司 一种智能计算渔群类别与深度的方法
CN117455948A (zh) * 2023-08-09 2024-01-26 东南大学 基于深度学习算法的多视角行人轨迹提取分析方法
CN117809052A (zh) * 2024-03-01 2024-04-02 海豚乐智科技(成都)有限责任公司 一种块状目标检测及特征提取方法、装置及存储介质

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115631402A (zh) * 2022-12-22 2023-01-20 联通(四川)产业互联网有限公司 一种适用于智慧养殖的ai算法服务平台构建方法
CN115631402B (zh) * 2022-12-22 2023-05-23 联通(四川)产业互联网有限公司 一种适用于智慧养殖的ai算法服务平台构建方法
CN115880646A (zh) * 2023-02-20 2023-03-31 中国民航大学 一种飞机入离位状态识别方法
CN116819540A (zh) * 2023-05-09 2023-09-29 南京俊禄科技有限公司 一种智能计算渔群类别与深度的方法
CN116363494A (zh) * 2023-05-31 2023-06-30 睿克环境科技(中国)有限公司 一种鱼类数量监测、洄游跟踪的方法和系统
CN116452967A (zh) * 2023-06-16 2023-07-18 青岛励图高科信息技术有限公司 基于机器视觉的鱼游动速度识别方法
CN116452967B (zh) * 2023-06-16 2023-08-22 青岛励图高科信息技术有限公司 基于机器视觉的鱼游动速度识别方法
CN117455948A (zh) * 2023-08-09 2024-01-26 东南大学 基于深度学习算法的多视角行人轨迹提取分析方法
CN117809052A (zh) * 2024-03-01 2024-04-02 海豚乐智科技(成都)有限责任公司 一种块状目标检测及特征提取方法、装置及存储介质
CN117809052B (zh) * 2024-03-01 2024-05-14 海豚乐智科技(成都)有限责任公司 一种块状目标检测及特征提取方法、装置及存储介质

Similar Documents

Publication Publication Date Title
CN115424292A (zh) 基于改进YOLOX与DeepSORT的鱼群跟踪方法
CN111178197B (zh) 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法
CN109410168A (zh) 用于确定图像中的子图块的类别的卷积神经网络模型的建模方法
Yu et al. An object-based visual attention model for robotic applications
CN110135231A (zh) 动物面部识别方法、装置、计算机设备和存储介质
CN1777912A (zh) 用于改进的背景-前景分割的使用目标分类的增强背景模型
CN112347977B (zh) 一种诱导性多能干细胞的自动检测方法、存储介质及装置
CN110827304B (zh) 一种基于深度卷积网络与水平集方法的中医舌像定位方法和系统
Mei et al. Recent advances of target tracking applications in aquaculture with emphasis on fish
CN108537168A (zh) 基于迁移学习技术的面部表情识别方法
Liu et al. Multi-class fish stock statistics technology based on object classification and tracking algorithm
CN111666897A (zh) 基于卷积神经网络的斑石鲷个体识别方法
Li et al. CMFTNet: Multiple fish tracking based on counterpoised JointNet
CN113592896A (zh) 基于图像处理的鱼类投喂方法、系统、设备及存储介质
CN112528823A (zh) 一种基于关键帧检测和语义部件分割的条斑鲨运动行为分析方法及系统
Xiao et al. Group-housed pigs and their body parts detection with Cascade Faster R-CNN
CN115690570B (zh) 一种基于st-gcn的鱼群摄食强度预测方法
CN112883915A (zh) 一种基于迁移学习的麦穗自动识别方法和系统
Avanzato et al. Dairy Cow Behavior Recognition Using Computer Vision Techniques and CNN Networks
CN116310541A (zh) 基于卷积网络多维度学习的昆虫分类方法及系统
Xu et al. Cucumber flower detection based on YOLOv5s-SE7 within greenhouse environments
CN108967246B (zh) 虾苗定位方法
CN114677614A (zh) 基于计算机视觉的单次母猪哺乳时长计算方法
CN113673422A (zh) 一种宠物种类识别方法及识别系统
CN113449712A (zh) 一种基于改进Alexnet网络的羊脸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination