CN113763418B - 一种基于头肩检测的多目标跟踪方法 - Google Patents

一种基于头肩检测的多目标跟踪方法 Download PDF

Info

Publication number
CN113763418B
CN113763418B CN202110228197.4A CN202110228197A CN113763418B CN 113763418 B CN113763418 B CN 113763418B CN 202110228197 A CN202110228197 A CN 202110228197A CN 113763418 B CN113763418 B CN 113763418B
Authority
CN
China
Prior art keywords
head
shoulder
data
appearance
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110228197.4A
Other languages
English (en)
Other versions
CN113763418A (zh
Inventor
吴玉香
魏丙乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202110228197.4A priority Critical patent/CN113763418B/zh
Publication of CN113763418A publication Critical patent/CN113763418A/zh
Application granted granted Critical
Publication of CN113763418B publication Critical patent/CN113763418B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于头肩检测的多目标跟踪方法,包括以下步骤:S1、构建头肩检测数据集,对改进的YOLOv3目标检测网络进行训练;S2、建立头肩外观特征提取的图像数据集;S3、输入视频流;S4、外观提取模型采用全局与局部特征的策略,利用代价矩阵进行跟踪相似度匹配;S5、借助代价矩阵和头肩检测数据进行相似度匹配,更新操作得出跟踪结果;S6、若有数据帧输入,则重复步骤S3至步骤S5的操作直至输入数据结束。本发明通过利用头肩外观特征提取模型,采用全局特征和局部特征融合的策略,提升外观提取模型对图像细粒度信息的敏感程度,更有效地提取头肩的外观特征信息,从而提升头肩跟踪的效果。

Description

一种基于头肩检测的多目标跟踪方法
技术领域
本发明涉及计算机视觉与模式识别相关领域,尤其涉及一种基于头肩检测的多目标跟踪方法。
背景技术
随着计算机视觉相关技术的高速发展,目标检测与跟踪技术被应用到实际生活中提升人们的生活水平。由于人在社会生产中占主导地位,因此,行人检测与跟踪一直是计算机视觉领域的研究热点,为车辆自动驾驶、智能监控等提供必要的技术保障,利用计算机视觉技术实现检测与跟踪人体头肩有着广泛的商业应用与价值。
对于目标检测领域,现有的方法中大致分为三种方法:模板匹配方法、提取特征方法(HOG+SVM)和基于深度学习的检测方法。
对于目标跟踪领域,多年来涌现许多优秀的算法,例如mean-shift(使用卡尔曼滤波、粒子滤波进行状态预测)、基于在线学习的跟踪、KFC(基于相关性滤波)、基于光流法等众多现有的跟踪算法,但不足的是这些现有的方法难以处理多目标跟踪中出现的相关问题:处理新目标的出现和老目标的消失、跟踪目标的相似度判别和运动预测,即相邻两帧目标的匹配、跟踪目标之间的遮挡、形变和重叠的处理和跟踪目标丢失。
在行人较为密集的场景中,行人之间经常存在姿态变化和相互遮挡的问题,姿态变化和遮挡影响检测器的检测效果,使漏检的概率增大,因此,需要寻找一种改善姿态变化与遮挡引起的问题的解决方案。
发明内容
为解决现有技术所存在的技术问题,本发明提供一种基于头肩检测的多目标跟踪方法,通过使用改进的YOLOv3检测网络提升对头肩目标的检测能力,利用头肩外观特征提取模型,采用全局特征和局部特征融合的策略,提升外观提取模型对图像细粒度信息的敏感程度,更有效地提取头肩的外观特征信息,从而提升头肩跟踪的效果。
本发明采用以下技术方案来实现:一种基于头肩检测的多目标跟踪方法,包括以下步骤:
S1、通过构建头肩检测数据集,并且对头肩数据集进行标注,再基于头肩数据集对改进的YOLOv3目标检测网络进行训练,获取头肩检测模型,通过头肩检测模型实时检测出视频图像中人的头肩,输出头肩的位置信息;
S2、通过建立头肩外观特征提取的图像数据集,并设计外观特征提取网络进行训练,获取头肩外观特征提取模型,通过头肩外观特征提取模型提取出用于目标相似度匹配的外观特征信息;
S3、输入视频流,并从输入的视频流中获取一帧图像数据,利用头肩检测模型获取此视频帧图像数据中的头肩信息;
S4、将头肩检测模型获取的头肩信息输入到经过训练的外观特征提取模型得到固定维度的头肩特征信息,将提取出的头肩特征信息用作外观信息的描述,且外观提取模型采用全局特征融合局部特征的策略,利用头肩位置和外观特征信息共同组成代价矩阵进行跟踪相似度匹配;
S5、若是视频流的第一帧图像数据则将检测到的头肩初始化为头肩跟踪数据,若不是第一帧数据则对前一帧的头肩跟踪数据进行预测操作,得出当前帧的头肩跟踪预测数据,然后借助代价矩阵和当前帧的头肩检测数据进行相似度匹配,再通过更新操作得出当前帧的跟踪结果;
S6、若还有后续数据帧输入,则重复步骤S3至步骤S5的操作直至输入数据结束。
本发明与现有技术相比,具有如下优点和有益效果:通过使用改进的YOLOv3检测网络提升对头肩目标的检测能力,利用头肩外观特征提取模型,采用全局特征和局部特征融合的策略,提升外观提取模型对图像细粒度信息的敏感程度,更有效地提取头肩的外观特征信息,从而提升头肩跟踪的效果。
附图说明
图1是本发明方法的流程图;
图2是改进的YOLOv3目标检测网络结构示意图;
图3是头肩目标的外观特征提取模型示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例一种基于头肩检测的多目标跟踪方法,主要包括以下步骤:
S1、通过构建头肩检测数据集,并且对头肩数据集进行标注,再基于头肩数据集对改进的YOLOv3目标检测网络进行训练,获取头肩检测模型,通过头肩检测模型实时检测出视频图像中人的头肩,输出头肩的位置信息。
本实施例中,构建头肩检测数据集主要是通过收集人体图像数据,选择视频图像中人的头肩部位作为检测和跟踪对象,其在于头肩对象不易形变和遮挡,鲁棒性更高,可提高系统的检测与跟踪效果。
本实施例中,步骤S1中头肩数据集对改进的YOLOv3目标检测网络进行训练主要包括以下步骤:
S11、将Darknet53主干网络中第十一个残差块的输出即大小为52*52的特征图单独引出;
S12、做一个降采样的操作使大小为52*52的特征图变成大小为26*26的特征图;
S13、将大小为26*26的特征图和主干网络后相同大小的特征图做特征融合,以增加目标的细节特征,提高检测网络对头肩的检测能力。
如图2所示,本实施例中,卷积集(Convolutional Set)包含五个卷积层,每个卷积层都使用批标准化(Batch Normalization)和ReLu激活函数,y1、y2和y3为三个尺度的检测输出。此头肩检测模型可实时检测出视频图像中人的头肩,输出头肩检测信息,将输入图像的分辨率固定为416*416大小的图像数据,输出有三个不同尺度大小的特征图,大小分别为13*13、26*26和52*52,依次负责大目标的检测、中等大小目标的检测和小目标的检测,由于本实施例仅对头肩类别的目标进行检测,所以三个不同尺度大小的特征图的通道数皆为3*(5+1)=18,由于26*26尺度的特征图主要负责对中等大小目标的检测,而头肩目标尺度大多属于中等大小,因此对该尺度做更多的特征融合。
S2、通过建立头肩外观特征提取的图像数据集,并设计外观特征提取网络进行训练,获取头肩外观特征提取模型,通过头肩外观特征提取模型有效提取出用于目标相似度匹配的外观特征信息。
本实施例中,建立头肩外观特征提取的图像数据集,包括:将数据集中同一个人的头肩图像作为同一类,每个人都有若干张不同姿态的头肩数据。
S3、输入视频流,并从输入的视频流中获取一帧图像数据,利用头肩检测模型获取此视频帧图像数据中的头肩信息。
本实施例中,步骤S3中的头肩信息包含头肩预测边界框位置信息(a,b,w,h);其中,a,b为预测边界框的中心坐标,w为预测边界框的宽度,h为预测边界框的高度,通过这四个值就可以确定出一个头肩目标在视频图像中的位置。
S4、将头肩检测模型获取的头肩信息输入到经过训练的外观特征提取模型得到固定维度的头肩特征信息,将提取出的头肩特征信息用作外观信息的描述,且外观提取模型采用全局特征融合局部特征的策略,利用头肩位置和外观特征信息共同组成代价矩阵进行跟踪相似度匹配。
如图3所示,本实施例中,仅利用全局特征会忽略图像本身的一些细粒度信息,因此,融合全局特征和局部特征作为头肩目标的外观特征,这样可以更有效的表征头肩目标,其中,局部特征采用水平切块的方法,将检测到的头肩目标从中间水平分成两块,每块独立作为局部特征来描述头肩目标,最后和全局特征融合在一起共同作为头肩目标的外观特征,增强对头肩目标的表达能力以及匹配的准确度,减少跟踪丢失情况的发生。
本实施例中,代价矩阵中的元素代表当前帧头肩检测数据和以前帧跟踪数据之间的差异,并由它们之间的外观距离和位置距离的加权和组成,其中,外观距离的衡量是通过最小余弦距离实现,以此来衡量头肩检测数据和跟踪数据的外观匹配程度,值越小说明外观匹配程度越大,余弦相似度可定义为如下公式:
则最小余弦距离可定义为如下公式:
d1(α,β)=min{1-Sim(α,β)}
其中,α和β分别是检测和跟踪数据经过外观特征提取模块提取后的特征向量,θ是α和β特征向量之间的夹角。
另外,位置距离由马氏距离公式来计算,由此来衡量头肩检测数据和跟踪数据的运动匹配程度,马氏距离公式可定义为如下:
d2(x,y)=(x-y)T·S-1·(x-y)
其中,x和y分别为头肩检测数据和跟踪数据的位置信息,位置信息可表示为(u,v,r,h),u和v代表头肩检测数据或跟踪数据的中心坐标,r为长宽比,h为数据的高度,S为检测和跟踪数据位置信息的协方差矩阵,T为向量转置符号。
因此,综合上述两种度量,对其进行加权平均可得:
c=γ·d1(α,β)+(1-γ)·d2(x,y)
其中,c是代价矩阵中的元素值;γ是外观距离和位置距离在代价矩阵中的权重,γ参数参数的取值在0至1之间,根据此式子可求出代价矩阵。
S5、若是视频流的第一帧图像数据则将检测到的头肩初始化为头肩跟踪数据,若不是第一帧数据则对前一帧的头肩跟踪数据进行预测操作,得出当前帧的头肩跟踪预测数据,然后借助代价矩阵和当前帧的头肩检测数据进行相似度匹配,再通过更新操作得出当前帧的跟踪结果。
本实施例中,利用卡尔曼滤波算法对前一帧的头肩跟踪数据进行预测操作,再借助代价矩阵并利用匈牙利匹配算法与当前帧的待匹配头肩目标进行匹配。
本实施例中,将形成的相似匹配对进行卡尔曼更新操作,给每个头肩对象赋予单独的ID号,得到当前帧的头肩跟踪结果,当下一帧数据输入的时候,重复进行相同的操作,直至数据输入结束。
S6、若还有后续数据帧输入,则重复步骤S3至步骤S5的操作直至输入数据结束。
本实施例可用于实现人体头肩的跟踪与监控,适用于室内和室外等多个场景;若摄像头不是静止的,则需要去掉头肩位置特征,仅利用头肩目标的外观特征,外观特征基于全局和局部特征融合的方法使得特征提取获得更好的效果。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围。

Claims (7)

1.一种基于头肩检测的多目标跟踪方法,其特征在于,包括以下步骤:
S1、通过构建头肩检测数据集,并且对头肩数据集进行标注,再基于头肩数据集对改进的YOLOv3目标检测网络进行训练,获取头肩检测模型,通过头肩检测模型实时检测出视频图像中人的头肩,输出头肩的位置信息;
S2、通过建立头肩外观特征提取的图像数据集,并设计头肩外观特征提取模型进行训练,获取头肩外观特征提取模型,通过头肩外观特征提取模型提取出用于目标相似度匹配的外观特征信息;
S3、输入视频流,并从输入的视频流中获取一帧图像数据,利用头肩检测模型获取此视频帧图像数据中的头肩信息;
S4、将头肩检测模型获取的头肩信息输入到经过训练的头肩外观特征提取模型得到固定维度的头肩特征信息,将提取出的头肩特征信息用作外观信息的描述,且头肩外观特征提取模型采用全局特征融合局部特征的策略,利用头肩位置和外观特征信息共同组成代价矩阵进行跟踪相似度匹配;
S5、若是视频流的第一帧图像数据则将检测到的头肩初始化为头肩跟踪数据,若不是第一帧数据则对前一帧的头肩跟踪数据进行预测操作,得出当前帧的头肩跟踪预测数据,然后借助代价矩阵和当前帧的头肩检测数据进行相似度匹配,再通过更新操作得出当前帧的跟踪结果;
S6、若还有后续数据帧输入,则重复步骤S3至步骤S5的操作直至输入数据结束;
步骤S1中基于头肩数据集对改进的YOLOv3目标检测网络进行训练包括以下步骤:
S11、将Darknet53主干网络中第十一个残差块的输出即大小为52*52的特征图单独引出;
S12、做一个降采样的操作使大小为52*52的特征图变成大小为26*26的特征图;
S13、将大小为26*26的特征图和主干网络后相同大小的特征图做特征融合;
步骤S4中代价矩阵中的元素代表当前帧头肩检测数据和以前帧跟踪数据之间的差异,并由它们之间的外观距离和位置距离的加权和组成,其中,外观距离的衡量是通过最小余弦距离实现,余弦相似度定义为如下公式:
则最小余弦距离定义为如下公式:
其中,分别是检测和跟踪数据经过头肩外观特征提取模型提取后的特征向量,/>是/>特征向量之间的夹角;
位置距离由马氏距离公式来计算,马氏距离公式定义为如下:
其中,分别为头肩检测数据和跟踪数据的位置信息,位置信息表示为(u,v,r,h),u和v代表头肩检测数据或跟踪数据的中心坐标,r为长宽比,h为数据的高度,S为检测和跟踪数据位置信息的协方差矩阵,/>为向量转置符号;
对外观距离和位置距离进行加权平均得:
其中,是代价矩阵中的元素值;/>是外观距离和位置距离在代价矩阵中的权重,/>参数的取值在0至1之间。
2.根据权利要求1所述的头肩检测的多目标跟踪方法,其特征在于,步骤S1中构建头肩检测数据集是通过收集人体图像数据,选择视频图像中人的头肩部位作为检测和跟踪对象。
3.根据权利要求1所述的头肩检测的多目标跟踪方法,其特征在于,步骤S2中建立头肩外观特征提取的图像数据集,包括:将数据集中同一个人的头肩图像作为同一类,每个人都有若干张不同姿态的头肩数据。
4.根据权利要求1所述的头肩检测的多目标跟踪方法,其特征在于,步骤S3中的头肩信息包含头肩预测边界框位置信息(a,b,w,h);其中,a,b为预测边界框的中心坐标,w为预测边界框的宽度,h为预测边界框的高度,通过这四个值确定出一个头肩目标在视频图像中的位置。
5.根据权利要求1所述的头肩检测的多目标跟踪方法,其特征在于,步骤S4中局部特征采用水平切块的方法,将检测到的头肩目标从中间水平分成两块,每块独立作为局部特征来描述头肩目标,最后和全局特征融合在一起共同作为头肩目标的外观特征。
6.根据权利要求1所述的头肩检测的多目标跟踪方法,其特征在于,步骤S5中利用卡尔曼滤波算法对前一帧的头肩跟踪数据进行预测操作,再借助代价矩阵并利用匈牙利匹配算法与当前帧的待匹配头肩目标进行匹配。
7.根据权利要求1所述的头肩检测的多目标跟踪方法,其特征在于,步骤S5中将形成的相似匹配对进行卡尔曼更新操作,给每个头肩对象赋予单独的ID号,得到当前帧的头肩跟踪结果,当下一帧数据输入的时候,重复进行相同的操作,直至数据输入结束。
CN202110228197.4A 2021-03-02 2021-03-02 一种基于头肩检测的多目标跟踪方法 Active CN113763418B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110228197.4A CN113763418B (zh) 2021-03-02 2021-03-02 一种基于头肩检测的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110228197.4A CN113763418B (zh) 2021-03-02 2021-03-02 一种基于头肩检测的多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN113763418A CN113763418A (zh) 2021-12-07
CN113763418B true CN113763418B (zh) 2024-02-02

Family

ID=78786715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110228197.4A Active CN113763418B (zh) 2021-03-02 2021-03-02 一种基于头肩检测的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113763418B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100618B (zh) * 2022-06-27 2024-04-12 同济大学 一种多源异构感知信息多层级融合表征与目标识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110969101A (zh) * 2019-11-21 2020-04-07 浙江工业大学 一种基于hog和特征描述子的人脸检测与跟踪方法
CN112037247A (zh) * 2020-08-27 2020-12-04 浙江大华技术股份有限公司 一种目标跟踪的方法、装置及计算机存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090296989A1 (en) * 2008-06-03 2009-12-03 Siemens Corporate Research, Inc. Method for Automatic Detection and Tracking of Multiple Objects
CN109522854B (zh) * 2018-11-22 2021-05-11 广州众聚智能科技有限公司 一种基于深度学习和多目标跟踪的行人流量统计方法
CN111476817A (zh) * 2020-02-27 2020-07-31 浙江工业大学 一种基于yolov3的多目标行人检测跟踪方法
CN111498331B (zh) * 2020-04-30 2022-02-01 昆明理工大学 基于深度学习的垃圾视觉识别方法、装置及分类回收装置
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法
CN112257628A (zh) * 2020-10-29 2021-01-22 厦门理工学院 一种户外比赛运动员的身份识别方法、装置及设备
CN112132119B (zh) * 2020-11-24 2021-05-28 科大讯飞(苏州)科技有限公司 客流统计方法、装置、电子设备和存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110969101A (zh) * 2019-11-21 2020-04-07 浙江工业大学 一种基于hog和特征描述子的人脸检测与跟踪方法
CN112037247A (zh) * 2020-08-27 2020-12-04 浙江大华技术股份有限公司 一种目标跟踪的方法、装置及计算机存储介质

Also Published As

Publication number Publication date
CN113763418A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
Kuo et al. How does person identity recognition help multi-person tracking?
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
EP3092619B1 (en) Information processing apparatus and information processing method
JP5102410B2 (ja) 移動体検出装置および移動体検出方法
CN104598883B (zh) 一种多摄像机监控网络中目标再识别的方法
WO2011080900A1 (ja) 移動体検出装置および移動体検出方法
KR101697161B1 (ko) 열 영상에서 온라인 랜덤 펀 학습을 이용하여 보행자를 추적하는 장치 및 방법
CN109934127B (zh) 基于视频图像与无线信号的行人识别与跟踪方法
WO2009109127A1 (en) Real-time body segmentation system
CN110298297A (zh) 火焰识别方法和装置
CN107767416B (zh) 一种低分辨率图像中行人朝向的识别方法
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
CN113963445A (zh) 一种基于姿态估计的行人摔倒动作识别方法及设备
Li et al. Robust multiperson detection and tracking for mobile service and social robots
Afonso et al. Automatic estimation of multiple motion fields from video sequences using a region matching based approach
JP2015204030A (ja) 認識装置及び認識方法
CN106056078A (zh) 一种基于多特征回归式集成学习的人群密度估计方法
CN113763418B (zh) 一种基于头肩检测的多目标跟踪方法
Nandhini et al. SIFT algorithm-based Object detection and tracking in the video image
CN116824641B (zh) 姿态分类方法、装置、设备和计算机存储介质
US20220366570A1 (en) Object tracking device and object tracking method
CN116912670A (zh) 基于改进yolo模型的深海鱼类识别方法
CN112446355B (zh) 一种公共场所行人识别方法及人流统计系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant