CN113160283B - 一种基于sift的多摄像头场景下的目标跟踪方法 - Google Patents

一种基于sift的多摄像头场景下的目标跟踪方法 Download PDF

Info

Publication number
CN113160283B
CN113160283B CN202110308801.4A CN202110308801A CN113160283B CN 113160283 B CN113160283 B CN 113160283B CN 202110308801 A CN202110308801 A CN 202110308801A CN 113160283 B CN113160283 B CN 113160283B
Authority
CN
China
Prior art keywords
target
tracking
data set
identification data
sift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110308801.4A
Other languages
English (en)
Other versions
CN113160283A (zh
Inventor
卢新彪
刘雅童
毛克春
施宇豪
唐紫婷
杭帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202110308801.4A priority Critical patent/CN113160283B/zh
Publication of CN113160283A publication Critical patent/CN113160283A/zh
Application granted granted Critical
Publication of CN113160283B publication Critical patent/CN113160283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于SIFT的多摄像头场景下的目标跟踪方法,包括:获取目标检测总数据集,所述目标检测总数据集通过拍摄包含不同类型的检测目标的照片制作形成;使用目标检测总数据集对目标检测器YOLO‑V5s模型进行训练;获取目标追踪重识别数据集,所述目标追踪重识别数据集通过拍摄包含不同类型的追踪目标的照片,提取出每张照片中包含追踪目标的部分制作形成;使用目标追踪重识别数据集训练DeepSort算法中的目标外观特征提取网络;获取运用SIFT算法拼接多摄像头拍摄的视频,使用训练过的YOLO‑V5s模型结合训练过的DeepSort算法对视频中的追踪目标进行追踪。本发明能够获得更大的目标检测范围并提高了目标追踪的精度。

Description

一种基于SIFT的多摄像头场景下的目标跟踪方法
技术领域
本发明涉及计算机视觉相关技术领域,尤其涉及一种基于SIFT的多摄像头场景下的目标跟踪方法。
背景技术
随着信息技术的发展,基于视觉的运动目标的检测与跟踪已逐渐渗透到人们生活的方方面面,其重要性日益突出。运动目标跟踪属于视频分析的内容,包括运动检测、目标分类、目标跟踪、事件检测等。基于视频目标跟踪方法的研究是计算机视觉领域的一个重要分支,而基于视觉的目标检测与跟踪是图像处理、计算机视觉、模式识别等众多学科的交叉研究课题,在视频监控、虚拟现实、人机交互、自主导航等领域,具有重要的理论研究意义和实际应用价值。
对于目标跟踪在各个场景下的应用,很多学者都做了相关的改进研究,但是对于多目标跨摄像头跟踪技术的研究,大多数学者都集中在寻找不同的摄像头捕获的图像之间的重合部分,以此作为视频拼接的基础。这些方法虽然能够实现跨越摄像头的目标追踪,但是并不直观,需要多个画面共同显示。而且,当不同摄像头画面中出现多个目标时,只能实现重合画面的跨摄像头追踪,而未重合画面部分的目标id如何分配,并未提出一个合适的解决方案。
发明内容
本发明的目的是提供一种基于SIFT的多摄像头场景下的目标跟踪方法,能够获得更大的目标检测范围并提高了目标追踪的精度。
本发明为实现上述发明目的采用如下技术方案:
本发明提供了一种基于SIFT的多摄像头场景下的目标跟踪方法,包括:
获取目标检测总数据集,所述目标检测总数据集通过拍摄包含不同类型检测目标的多张照片制作形成;
使用目标检测总数据集对目标检测器YOLO-V5s模型进行训练;
获取目标追踪重识别数据集,所述目标追踪重识别数据集通过拍摄包含不同类型追踪目标的多张照片,提取出每张照片中包含追踪目标的部分制作形成;
使用目标追踪重识别数据集训练DeepSort算法中的目标外观特征提取网络;
获取运用SIFT算法拼接多摄像头拍摄的视频,使用训练过的YOLO-V5s模型结合训练过的DeepSort算法对视频中的追踪目标进行追踪。
进一步地,将DeepSort算法中的目标外观特征提取网络中的Relu激活函数换为Mish激活函数。
进一步地,所述Mish激活函数的表达式如下:
Mish=x*tanh(ln(1+ex))
式中:x表示神经网络某层输入的加权和。
进一步地,使用目标追踪重识别数据集训练改进后的DeepSort算法中的目标外观特征提取网络,在训练过程中将SGD优化器换为集成了SGD的一阶动量和RMSProp的二阶动量的Adam优化器。
进一步地,所述检测目标、追踪目标均选用智能车。
进一步地,制作目标检测数据集,具体过程为:
拍摄包含不同类型的智能车的照片;
用数据集标注软件,给每张照片生成对应的标签文件,得到自制智能车数据集;
将VOC2012数据集与自制智能车数据集混合构成目标检测总数据集。
进一步地,制作目标追踪重识别数据集,具体过程为:
拍摄包含不同类型的智能车的照片,并将每张照片中包含智能车的部分提取出来,构成自制智能车重识别数据集;
将收集到的包含不同类型车辆照片的车辆重识别数据集与自制智能车重识别数据集混合,构成智能车重识别数据集。
本发明的有益效果如下:
运用SIFT图像拼接算法得到了多摄像头拼接后的视频,最后在视频中应用训练的YOLO-V5s模型结合改进后训练的的DeepSort算法实现了多目标追踪;
基于SIFT的多摄像头场景下的多目标跟踪,能够获得更大的目标检测范围并提高了目标追踪的精度。
附图说明
图1为根据本发明实施例提供的自制数据集训练的YOLO-V5s模型在测试集上的分类性能指标;
图2为根据本发明实施例提供的使用自制车辆重识别数据集训练原DeepSort算法中目标外观信息提取网络和改进后的目标外观提取网络的效果对比图;
图3为根据本发明实施例提供的DeepSort算法中目标外观信息提取网络改进前后在测试集上的对比图;
图4为根据本发明实施例提供的应用YOLO-V5s模型与改进后的DeepSort算法,在多摄像头融合的视频中的跟踪效果图。
具体实施方式
参照图1至图4,本发明提供一种基于SIFT的多摄像头场景下的目标跟踪方法,本发明利用YOLO-V5s结合改进的DeepSort算法,并结合图像拼接算法,实现了不同摄像头画面的拼接,最后在拼接后的视频中实现多目标跟踪。数据集方面,采用自制的智能车数据集和自制的包含有智能车的车辆重识别数据集。具体步骤如下:
S1:拍摄本实验所采用的若干辆智能车照片,并对每张照片做标注,做成自制智能车数据集;
S2:将自制智能车数据集与VOC2012数据集汇总,得到目标检测总数据集用于本实验中YOLO-V5s模型的训练;
S3:拍摄每辆智能车的多角度图片,提取出每张照片包含智能车的部分,得到自制智能车重识别数据集,结合收集到的包含不同类型车辆照片的车辆重识别数据集得到智能车重识别数据集;
S4:对DeepSort算法中的目标外观特征提取网络进行了改进,将Relu激活函数换成Mish激活函数;
S5:用智能车重识别数据集训练改进后的DeepSort算法中的目标外观特征提取网络,并在训练时将SGD优化器换为集成了SGD的一阶动量和RMSProp的二阶动量的Adam优化器;
S6:将训练的YOLO-V5s模型结合改进后训练的的DeepSort算法结合,得到能够准确跟踪智能车的目标跟踪模型;
S7:运用SIFT算法拼接多摄像头拍摄的视频,得到拼接后的视频,用训练的YOLO-V5s模型结合改进后训练的的DeepSort算法结合对视频中的智能车进行追踪。
步骤S1中,YOLO-V5s模型的目标检测效果与数据集息息相关,因此,制造一个好的数据集至关重要。在制作数据集的过程中,从不同场景、不同角度、不同拍摄距离、不同光线下拍摄智能车的照片,得到了包含智能车的1000张照片。每个图像中包含的智能车的数量、大小、角度、光线均有所不同,最后用数据集标注软件,给每张照片生成对应的标签文件,得到自制智能车数据集。将VOC2012数据集与自制智能车数据集相结合,得到最终的目标检测总数据集。其中,取80%用于训练集,10%用于验证集,10%用于测试集。
步骤S2中,目标检测模型为YOLO-V5s。YOLO-V5s是YOLO-V5系列中深度最小、特征图的宽度最小的网络,在灵活性与速度上远强于YOLO-V4。YOLO-V5s的新技术的特点如下:1、自适应锚框计算。在YOLO算法中,针对不同的数据集,都会有初始设定长宽的锚框。在YOLO-V3、YOLO-V4中,训练不同的数据集时,计算初始锚框的值是通过单独的程序运行的。但YOLO-V5s中将此功能嵌入到代码中,每次训练时,自适应的计算不同训练集中的最佳锚框值。2、自适应照片缩放。在常用的目标检测算法中,不同的照片长宽都不相同,因此常用的方式是将原始照片统一缩放到一个标准尺寸,再送入检测网络中,比如Yolo算法中常用416×416,608×608等尺寸,这样照片经过缩放填充后,图像两边填充的黑边大小都不同,如果填充的比较多,则存在信息冗余,影响推理速度。因此YOLO-V5s引入了自适应照片缩放,对原始图像自适应的添加了最少的黑边。这样在推理时,计算量也会减少,即目标检测速度会得到提升。3、Focus结构。在YOLO-V3、YOLO-V4中并没有这个这个结构,其中比较关键的是切片操作。原始608*608*3的图像输入Focus结构,采用切片操作,先变成304*304*12的特征图,再经过一次32个卷积核的卷积操作,最终变成304*304*32的特征图。4、CSP结构。YOLO-V4中只有Backbone主干网络用了CSP结构,而YOLO-V5s中设计了两种CSP结构,一种用于Backbone主干网络,另一种用于Neck加强特征提取网络中。
步骤S3中,制作车辆重识别数据集。对每辆智能车拍摄不同角度、不同距离的照片,并将照片中的智能车的位置单独提取,每辆智能车大约拍摄50张照片,构成自制智能车重识别数据集,然后将收集到的包含不同类型车辆照片的车辆重识别数据集与自制智能车重识别数据集混合,构成智能车重识别数据集。智能车重识别数据集中包含有600个不同的车辆,每种车辆有50张照片。取其中90%为训练集,10%为测试集。
步骤S4-S5中,使用DeepSort目标跟踪算法,并对其进行了改进。DeepSort是在Sort目标追踪基础上的改进。引入了行人重识别数据集上离线训练的深度学习模型,在实时目标跟踪过程中,提取目标的表观特征进行最近邻匹配,可以改善有遮挡情况下的目标追踪效果。同时,也减少了目标ID跳变的问题。对本专利而言,识别的目标是智能车,为此需要训练一个合适的卷积网络来提取智能车的目标外观信息。为了使得网络的提取能力更优,本专利对DeepSort的特征提取网络进行了改进,将网络中的Relu激活函数换为Mish激活函数,Mish激活函数的表达式为:
Mish=x*tanh(ln(1+ex))
式中:x表示神经网络某层输入的加权和。
由于Relu激活函数在负值的时候直接截断,梯度下降不够平滑,因此这里采用Mish激活函数进行优化。使用Mish函数的原因是它的平滑、非单调、上无界、有下界的特点,与其他常用函数如Relu和Swish相比,具有更好的泛化能力和结果的有效优化能力。替换激活函数,提高模型在该数据集上的精确度,并且降低损失。同时在DeepSort的目标外观特征提取网络的训练中,将SGD优化器替换为集成了SGD的一阶动量和RMSProp的二阶动量的Adam优化器,从而进一步实现了模型性能上的提优。
步骤S6中,将训练的YOLO-V5s模型结合改进后训练的DeepSort算法相结合,在单摄像头的场景下进行多目标跟踪。
步骤S7中,将图像拼接算法应用到多摄像头场景下的目标跟踪。这里采用的是基于SIFT的图像拼接算法。SIFT算法在当前的各类图像拼接算法中,具有特征稳定,对旋转、尺度变换、亮度保持不变性,对视角变换、噪声也有一定程度的稳定性。多摄像头视频拼接的思路如下:首先读取每个摄像头读取到的照片,分别提取SIFT特征;利用KD-Tree和BBF算法进行特征匹配查找;利用RANSAC算法筛选匹配点并计算变换矩阵;最后进行图像融合从而得到拼接后的图像,从而得到最终多摄像头融合的视频。用训练的YOLO-V5s模型结合改进后训练的DeepSort算法对视频中的智能车进行追踪。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (5)

1.一种基于SIFT的多摄像头场景下的目标跟踪方法,其特征在于,包括:
获取目标检测总数据集,所述目标检测总数据集通过拍摄包含不同类型的检测目标的照片制作形成;
使用目标检测总数据集对目标检测器YOLO-V5s模型进行训练;
获取目标追踪重识别数据集,所述目标追踪重识别数据集通过拍摄包含不同类型的追踪目标的照片,提取出每张照片中包含追踪目标的部分制作形成;
使用目标追踪重识别数据集训练DeepSort算法中的目标外观特征提取网络;包括:将DeepSort算法中的目标外观特征提取网络中的Relu激活函数换为Mish激活函数;所述Mish激活函数的表达式如下:
Mish=x*tanh(ln(1+ex))
式中:x表示神经网络某层输入的加权和;
获取运用SIFT算法拼接多摄像头拍摄的视频,使用训练过的YOLO-V5s模型结合训练过的DeepSort算法对视频中的追踪目标进行追踪。
2.根据权利要求1所述的一种基于SIFT的多摄像头场景下的目标跟踪方法,其特征在于,使用目标追踪重识别数据集训练改进后的DeepSort算法中的目标外观特征提取网络,在训练过程中将SGD优化器换为集成了SGD的一阶动量和RMSProp的二阶动量的Adam优化器。
3.根据权利要求1或2所述的一种基于SIFT的多摄像头场景下的目标跟踪方法,其特征在于,所述检测目标、追踪目标均选用智能车。
4.根据权利要求3所述的一种基于SIFT的多摄像头场景下的目标跟踪方法,其特征在于,制作目标检测数据集,具体过程为:
拍摄包含不同类型的智能车的照片;
用数据集标注软件,给每张照片生成对应的标签文件,得到自制智能车数据集;
将VOC2012数据集与自制智能车数据集混合构成目标检测总数据集。
5.根据权利要求4所述的一种基于SIFT的多摄像头场景下的目标跟踪方法,其特征在于,制作目标追踪重识别数据集,具体过程为:
拍摄包含不同类型的智能车的照片,并将每张照片中包含智能车的部分提取出来,构成自制智能车重识别数据集;
将收集到的包含不同类型车辆照片的车辆重识别数据集与自制智能车重识别数据集混合,构成智能车重识别数据集。
CN202110308801.4A 2021-03-23 2021-03-23 一种基于sift的多摄像头场景下的目标跟踪方法 Active CN113160283B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110308801.4A CN113160283B (zh) 2021-03-23 2021-03-23 一种基于sift的多摄像头场景下的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110308801.4A CN113160283B (zh) 2021-03-23 2021-03-23 一种基于sift的多摄像头场景下的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN113160283A CN113160283A (zh) 2021-07-23
CN113160283B true CN113160283B (zh) 2024-04-16

Family

ID=76888206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110308801.4A Active CN113160283B (zh) 2021-03-23 2021-03-23 一种基于sift的多摄像头场景下的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113160283B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113947108A (zh) * 2021-10-15 2022-01-18 福州大学 一种基于yolo v5的球员追踪检测方法
CN114023062B (zh) * 2021-10-27 2022-08-19 河海大学 一种基于深度学习和边缘计算的交通流信息监测方法
CN114155255B (zh) * 2021-12-14 2023-07-28 成都索贝数码科技股份有限公司 一种基于特定人物时空轨迹的视频横屏转竖屏方法
CN114882351B (zh) * 2022-03-31 2024-04-26 河海大学 一种基于改进YOLO-V5s的多目标检测与跟踪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921875A (zh) * 2018-07-09 2018-11-30 哈尔滨工业大学(深圳) 一种基于航拍数据的实时车流检测与追踪方法
CN110647875A (zh) * 2019-11-28 2020-01-03 北京小蝇科技有限责任公司 一种血细胞分割、识别模型构造的方法及血细胞识别方法
AU2020100371A4 (en) * 2020-03-12 2020-04-16 Jilin University Hierarchical multi-object tracking method based on saliency detection
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法
CN112101433A (zh) * 2020-09-04 2020-12-18 东南大学 一种基于YOLO V4和DeepSORT的分车道车辆自动计数方法
CN112116534A (zh) * 2020-08-07 2020-12-22 贵州电网有限责任公司 一种基于位置信息的鬼影消除方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921875A (zh) * 2018-07-09 2018-11-30 哈尔滨工业大学(深圳) 一种基于航拍数据的实时车流检测与追踪方法
CN110647875A (zh) * 2019-11-28 2020-01-03 北京小蝇科技有限责任公司 一种血细胞分割、识别模型构造的方法及血细胞识别方法
AU2020100371A4 (en) * 2020-03-12 2020-04-16 Jilin University Hierarchical multi-object tracking method based on saliency detection
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法
CN112116534A (zh) * 2020-08-07 2020-12-22 贵州电网有限责任公司 一种基于位置信息的鬼影消除方法
CN112101433A (zh) * 2020-09-04 2020-12-18 东南大学 一种基于YOLO V4和DeepSORT的分车道车辆自动计数方法

Also Published As

Publication number Publication date
CN113160283A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN113160283B (zh) 一种基于sift的多摄像头场景下的目标跟踪方法
Jiao et al. A survey of deep learning-based object detection
Xu et al. Segment as points for efficient online multi-object tracking and segmentation
Kamble et al. Ball tracking in sports: a survey
Gurghian et al. Deeplanes: End-to-end lane position estimation using deep neural networksa
Wang et al. A robust and efficient video representation for action recognition
Tanberk et al. A hybrid deep model using deep learning and dense optical flow approaches for human activity recognition
Uemura et al. Feature Tracking and Motion Compensation for Action Recognition.
Kumar et al. Recent trends in multicue based visual tracking: A review
Rafi et al. Self-supervised keypoint correspondences for multi-person pose estimation and tracking in videos
CN109492576B (zh) 图像识别方法、装置及电子设备
CN111046856B (zh) 基于动静态特征提取并行位姿跟踪与地图创建的方法
Megrhi et al. Spatio-temporal action localization and detection for human action recognition in big dataset
Zhang et al. Coarse-to-fine object detection in unmanned aerial vehicle imagery using lightweight convolutional neural network and deep motion saliency
CN109919223B (zh) 基于深度神经网络的目标检测方法及装置
Xie et al. Context-aware pedestrian detection especially for small-sized instances with Deconvolution Integrated Faster RCNN (DIF R-CNN)
CN113177518A (zh) 一种利用弱监督区域推荐的车辆重识别方法
CN113963251A (zh) 一种海洋生物检测方法、系统和设备
Mirani et al. Object Recognition in Different Lighting Conditions at Various Angles by Deep Learning Method
Wang et al. STV-based video feature processing for action recognition
CN113112479A (zh) 基于关键区块提取的渐进式目标检测方法和装置
Huang et al. Bidirectional tracking scheme for visual object tracking based on recursive orthogonal least squares
Dilawari et al. Toward generating human-centered video annotations
Nir et al. CAST: Character labeling in Animation using Self‐supervision by Tracking
Chen et al. Illumination-invariant video cut-out using octagon sensitive optimization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant