CN113781521B - 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法 - Google Patents

一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法 Download PDF

Info

Publication number
CN113781521B
CN113781521B CN202110781740.3A CN202110781740A CN113781521B CN 113781521 B CN113781521 B CN 113781521B CN 202110781740 A CN202110781740 A CN 202110781740A CN 113781521 B CN113781521 B CN 113781521B
Authority
CN
China
Prior art keywords
improved
deep
tracking
robot fish
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110781740.3A
Other languages
English (en)
Other versions
CN113781521A (zh
Inventor
汪明
常征
张宜阳
曹建荣
孙启凯
王昆仑
杜晓彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Jianzhu University
Original Assignee
Shandong Jianzhu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Jianzhu University filed Critical Shandong Jianzhu University
Priority to CN202110781740.3A priority Critical patent/CN113781521B/zh
Publication of CN113781521A publication Critical patent/CN113781521A/zh
Application granted granted Critical
Publication of CN113781521B publication Critical patent/CN113781521B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本公开公开了一种基于改进YOLO‑DeepSort的仿生机器鱼检测跟踪方法,包括:通过建立改进的YOLOv3目标检测网络,建立DeepSort跟踪模型,通过目标检测模型获取目标边界框与特征向量,将其送入DeepSort模型,通过DeepSort模型进行目标匹配、跟踪、预测与更新。

Description

一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法
技术领域
本公开涉及计算机视觉技术与仿生机器人领域,具体为一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法。
背景技术
21世纪以来,石油、煤炭等能源危机迫使人们将资源探查的目光转向海洋,针对海洋世界的开发需求剧增。鱼类作为海洋的宠儿,既能够在持久游速下保持高效率、低能耗,也可以在爆发游速与拉力游速下实现高灵活型,是仿生机器鱼的理想仿生研究对象。因此,对仿生机器鱼的研究顺应时代变化,适应各种动态非结构化水下环境的水下机器人也将会得到快速发展。
非结构化和动态变化的水下环境充满危险且不可预测,在仿生机器鱼研究中,更好地跟踪仿生机器鱼,可为仿生机器鱼后续研究打下坚实的控制基础。随着深度学习技术的持续发展与日渐成熟,基于深度学习的仿生机器鱼目标检测跟踪可以实现更好的跟踪效果,大大提高机器鱼水下的生存能力。将其应用在多机器鱼协同运动中时,通过视觉实现机器鱼之间的相互感知以及定位,准确的执行预定动作,控制机器鱼运动;在实验室环境下,基于全局视觉的仿生机器鱼检测跟踪,可以对仿生机器鱼的运动状况进行评估,对其进行定位、估算游动速度、计算运动轨迹等,通过技术手段进行更加可靠的实验结果分析。
因此,基于改进的YOLO-DeepSort算法能够准确的对机器鱼进行分析跟踪,可以有效应对机器鱼游动产生的形变、光照变化、水流扰动等问题。
发明内容
本说明书实施方式的目的是提供一种基于视觉的仿生机器鱼检测跟踪方法,通过对获取的机器鱼运动图像进行处理,进行机器鱼检测并实现对机器鱼的跟踪。
本说明书实施方式提供一种基于改进YOLOv3-DeepSort的仿生机器鱼检测跟踪方法,通过以下技术方案实现:
包括:
1、数据集获取,利用全局视觉平台,获取机器鱼直游、转弯、上浮、下潜、水流扰动、不同光照条件以及不同背景的机器鱼检测数据集;
2、Kemans聚类,基于上述步骤获取的数据集,采用k-means方法重新聚类anchor锚框,采用公式(1)作为距离公式对机器鱼检测数据集进行聚类;
(1)
其中,box表示标注框样本,cent表示聚类中心,IoU(box,cent)表示样本框与聚类框的交并比;
3.改进YOLO-v3模型,为提高推理速度,缩短推理时间,对Backbone特征提取网络部分进行结构改进,将残差模块分别调整为1、1、2、2、1,特征提取结构如表1所示;
4.采用标注BOX与预测Box的GIoU误差和交叉熵作为损失函数,使用GIoU计算坐标误差。
与现有技术相比,本公开的有益效果为:
本公开提出的基于改进的YOLOv3(You Only Look Once v3)算法仅针对仿生机器鱼进行检测,相比于原始YOLOv3算法,减少了特征提取网络层数,确保在保证精度的情况下提高检测速度,能够更好的应用于仿生机器鱼目标检测。
本公开针对仿生机器鱼运动形变产生的目标尺度变化,为更好的在实验室及多机器鱼协同运动中的进行机器鱼检测跟踪但不仅限于此,在56×56,28×28两个尺度上引入SPP模块,对全局特征与局部特征进行融合,提高对运动状态下的机器鱼的检测跟踪的鲁棒性。
本公开提出的基于改进的YOLOv3与DeepSort仿生机器鱼检测跟踪方法,能够有效应对机器鱼的运动过程的形变、光照变化、水流扰动等情形,保证精度的同时提高了实时性,能够良好的应用于机器鱼的检测跟踪。
附图说明
表1表示改进的特征提取网络darknet20。
图1表示特征提取网络中的残差模块。
图2 表示YOLOv3网络结构中的SPP模块。
图3表示改进后的YOLOv3网路结构图。
图4表示仿生机器鱼目标跟踪流程图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例子一
该实施例公开了一种基于改进YOLOv3-DeepSort的机器鱼目标检测跟踪方法,构建改进的YOLOv3模型,建立DeepSort跟踪模型,在采集的机器鱼检测数据集上进行YOLOv3模型训练,将最优模型应用于机器鱼的检测,将检测结果送入DeepSort模型进行机器鱼跟踪。本公开提出了一种仿生机器鱼的检测跟踪方法。
步骤1:建立改进的YOLOv3目标检测网络。
针对仿生机器鱼的目标检测过程,首先构建基于改进YOLOv3的目标检测网络。
步骤1.1:对特征提取网络进行优化改进;
YOLOv3原始网络为通用的目标检测结构,采用Convolutional层作为基本结构,由大量残差模块组成,如图1所示。由于原始YOLOv3模型推理耗时较长,考虑到本文检测目标为仿生机器鱼一类,不需要特别深的网络结构,同时对实时性也有一定要求,因此对特征提取网络进行优化改进,减少残差模块的个数。此外,本公开主要应用于实验室环境或者多机器鱼协同运动时基于视觉的机器鱼检测控制,在距离相对较近的情况下,按仿生机器鱼在图像中的所占像素比例可将其划分为大目标和中等目标,为在保证相对较高的精度同时提高实时性,将残差模块的个数分别调整为1、1、2、2、1,如表1所示。
步骤1.2 :引入空间金字塔池化结构;
原始YOLOv3网络对目标尺度变化较大的情况检测能力较弱,而机器鱼其本身的直游转弯运动产生了形变,运动过程中会发生尺度变化,因此本公开引入空间金字塔池化结构(Spatial Pyramid Pooling,SPP),如图2所示,包含三个分别为9×9、5×5、13×13的最大池化层进行特征提取。本文在52×52和28×28两个尺度上引入SPP结构,通过SPP模块实现局部特征与全局特征融合,丰富了特征图的表达能力,提高了对仿生机器鱼的检测能力。改进后的YOLOv3网络结构如图3所示。
步骤1.3: 改进损失函数
在训练过程中,YOLOv3的损失函数可分为三个部分,分别为边界框回归损失、置信度损失以及分类损失。总的Loss可用公式(2)表示:
(2)
其中,i表示尺度。
仿生机器鱼的定位通常依赖精准的边界框回归,为了提高定位的准确性和检测精度,对边界框回归损失进行改进。本发明采用CIoU(Complete-IoU)作为回归损失。在边界框的回归定位损失应该考虑3种几何参数:边界框的重叠面积,中心点距离,长宽比。相比于IOU,CIoU即可在真实框与预测框无交集的情况下进行评估度量,也可准确反映真实框与预测框的重合度大小,并且提高训练速度。IoU与CIoU的定义如下:
(3)
(4)
(5)
(6)
其中,B表示预测框,Bgt表示标注框,b表示预测框的中心点坐标,bgt表示标注框的中心点坐标,c表示预测框与标注框的最小外接矩形, ρ表示两个中心点坐标的欧氏距离,α、v表示比例因子,w、h分别表示预测框的宽高,Wgt、hgt分别表示标注框的宽高。
步骤2:建立DeepSort模型,DeepSort采用tracking-by-detection的方法,即基于目标检测的结果来进行目标跟踪。当同一目标在不同时刻,位置发生了变化,通过匈牙利算法和卡尔曼滤波算法进行关联。
步骤2.1:状态估计与轨迹处理;状态估计:DeepSort采用8维空间(u, v, r, h,x*, r*, h*)来描述某时刻的目标运动状态。其中,(u, v)为跟踪框的中心位置、r为纵横比、h为高度及在各自所属图像坐标中的速度信息。采用融合线性观测与匀速模型的标准kalman滤波器预测更新目标运动状态,(u, v, r, h)作为预测结果。轨迹处理:对每个目标轨迹,设置一个初始为0的阈值a,对轨迹自上一次成功匹配至这一时刻的时间进行记录,在目标检测与目标跟踪关联时重置为0,大于阈值Amax时则认为轨迹终止。在轨迹匹配时,任何无法成功匹配的检测均假定为新的轨迹,认为可能出现新的目标,观测之后的连续3帧,若连续成功匹配则判定新目标出现,反之将该可能目标移除。
步骤2.2跟踪指派,DeepSort通过计算目标检测框与已有的运动目标跟踪器预测框的马氏距离度量运动的关联,如公式(7)所示
(7)
式中,dj代表第j个检测框的位置(u, v, r, h),yi为第i个跟踪器对目标的预测位置,si表示检测位置与平均跟踪位置之间的协方差矩阵。公式(7)通过计算平均跟踪位置和检测位置的标准差把状态测量的非确定性考虑在内。
在DeepSort中,同时考虑运动信息的关联和目标外观信息的关联。
运动信息的关联:使用马氏距离计算已跟踪的运动目标的轨迹状态的kalman预测结果与检测结果来进行运动信息的关联。
另外,针对此度量,可以采用逆χ2分布运算获得的95%置信区间阈值化马氏距离去除不可能关联。使用函数如下式。
(8)
若某次关联的马氏距离小于指定阈值,则认为运动状态成功关联,其中t(1)为9.4877。
马氏距离可以在目标运动具备较低不确定性时作为一个关联度量,但在实际应用中,如相机运动会导致马氏距离不能正确匹配运动目标,从而使度量失效,因此整合外观信息,引入余弦距离。
对每一个目标检测框dj,计算特征向量rj,其中| rj| = 1,,对所有轨迹k,创建一 个外观描述图库用来存放最新的Lk = 100个轨迹的描述子,即,然后使 用外观信息中第j个检测和第 i个轨迹的最小余弦距离作为第二个度量尺度,计算公式如 (9)、(10)所示:
(9)
(10)
公式(10)计算的距离d(2)(i,j)小于指定的阈值t(2),则此关联就是成功的。
使用马氏距离与最小余弦距离的线性加权为最终度量,如公式(11)所示:
(11)
公式12中,计算两个指标的阈值矩阵,若关联在两个指标的阈值范围内,则称之为可接受的关联:
(12)
调节参数灵活控制两种度量方式对式(11)的影响,当二者均在各自阈值范围内时才采用线性加权。最小余弦度量对长时间遮挡情形鲁棒性较好,距离度量对短时的预测与匹配鲁棒性较好。实际应用过程中,依据实际情况合理调节参数λ。
步骤2.3级联匹配
卡尔曼滤波器无法准确预测目标被长时间遮挡的运动状态,此外,当两个轨迹对同一个检测结果匹配时,马氏距离对被长时间遮挡的轨迹具有较大的不确定性,使得检测结果更易与长时间遮挡的轨迹相关联。Depsort通过引入级联匹配,对频繁出现的目标给予优先权。其核心思想为从小到大进行消失帧数相同的轨迹的匹配已解决上述问题。
最后,基于改进YOLOv3-DeepSort的仿生机器鱼目标检测跟踪流程如图4所示。
实施例子2:本公开提供了一种基于改进YOLOv3-DeepSort的仿生机器鱼检测跟踪方法,包括:改进YOLOv3特征提取网络,其用于对输入图像进行特征提取,基于裁剪后残差模块分别为1、1、2、2、1的Darknet-20网络进行特征提取,保证精度的同时提高速度;引入空间金字塔池化结构SPP,在56×56、28×28两个尺度上加入SPP模块,对全局特征与局部特征进行融合,提高对机器鱼形变产生的目标尺度变化问题的检测效果;基于CIoU对损失函数进行改进,确保能够在边界框的重叠面积、中心点距离、长宽比提高边界框的回归定位精度,提高训练速度。
建立DeepSort跟踪模型,将改进的YOLOV3网络作为检测器与DeepSort算法结合,实现对仿生机器鱼的精准检测跟踪。
以上仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。

Claims (4)

1.一种基于改进的YOLOv3-DeepSort的仿生机器鱼检测跟踪方法,其特征在于,包括:构建特征提取网络:为在保证相对较高的精度同时提高实时性,将残差模块的个数分别调整为1、1、2、2、1,构建了Darknet-20特征提取网络;引入空间金字塔池化结构:为了应对机器鱼自身运动形变带来的尺度变化,在56×56和28×28两个预测尺度上引入SPP模块,其中SPP模块结构为包含三个分别为9×9、5×5、13×13大小的最大池化层,对全局特征与局部特征进行融合,提高对运动状态下的机器鱼检测跟踪的鲁棒性;改进损失函数:仿生机器鱼的定位通常依赖精准的边界框回归,为了提高定位的准确性和检测精度,因此采用CIoU对损失函数进行改进;建立DeepSort跟踪模型:将改进的YOLOv3检测网络与DeepSort进行关联,利用改进YOLOv3网络获取目标边界框与特征向量,通过DeepSort模型进行目标匹配、跟踪、预测与更新。
2.如权利要求1所述的一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法,其特征在于:改进特征提取网络,对基于全局摄像头或配备由图像采集模块的仿生机器鱼采集的数据图像进行特征提取,为保证精度、提高实时性,构建了Darknet-20特征提取网络,该特征提取网络中的残差模块的个数分别为1、1、2、2、1。
3.如权利要求1所述的一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法,其特征在于:所述的引入空间金字塔池化结构,为了应对机器鱼自身运动形变带来的尺度变化,经过特征提取网络之后,在56×56和28×28两个预测尺度上引入SPP模块,对全局特征与局部特征进行融合,提高对运动状态下的机器鱼检测跟踪的鲁棒性;同时,对损失函数进行改进,引入CIoU进行优化改进,提高仿生机器鱼的定位效果,
所述CIoU函数如下所示:
其中, b表示预测框的中心点坐标,bgt表示标注框的中心点坐标,c表示预测框与标注框的最小外接矩形, ρ表示两个中心点坐标的欧氏距离,α、v表示比例因子, w、h分别表示预测框的宽高, wgt、 hgt分别表示标注框的宽高。
4.如权利要求1所述的一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法,其特征在于,建立DeepSort模型,将上述改进YOLOv3模型与DeepSort模型关联,利用改进YOLOv3网络获取目标边界框与特征向量,通过DeepSort模型进行目标匹配、跟踪、预测与更新;本公开公开了一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法,包括:通过建立改进的YOLOv3目标检测网络,建立DeepSort跟踪模型,通过目标检测模型获取目标边界框与特征向量,将其送入DeepSort模型,通过DeepSort模型进行目标匹配、跟踪、预测与更新。
CN202110781740.3A 2021-07-12 2021-07-12 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法 Active CN113781521B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110781740.3A CN113781521B (zh) 2021-07-12 2021-07-12 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110781740.3A CN113781521B (zh) 2021-07-12 2021-07-12 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法

Publications (2)

Publication Number Publication Date
CN113781521A CN113781521A (zh) 2021-12-10
CN113781521B true CN113781521B (zh) 2023-08-08

Family

ID=78835921

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110781740.3A Active CN113781521B (zh) 2021-07-12 2021-07-12 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法

Country Status (1)

Country Link
CN (1) CN113781521B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114724022B (zh) * 2022-03-04 2024-05-10 大连海洋大学 融合SKNet与YOLOv5的养殖鱼群检测方法、系统和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516556A (zh) * 2019-07-31 2019-11-29 平安科技(深圳)有限公司 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质
CN111739053A (zh) * 2019-03-21 2020-10-02 四川大学 一种复杂场景下的在线多行人检测跟踪方法
CN112101433A (zh) * 2020-09-04 2020-12-18 东南大学 一种基于YOLO V4和DeepSORT的分车道车辆自动计数方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111739053A (zh) * 2019-03-21 2020-10-02 四川大学 一种复杂场景下的在线多行人检测跟踪方法
CN110516556A (zh) * 2019-07-31 2019-11-29 平安科技(深圳)有限公司 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质
WO2021017291A1 (zh) * 2019-07-31 2021-02-04 平安科技(深圳)有限公司 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质
CN112101433A (zh) * 2020-09-04 2020-12-18 东南大学 一种基于YOLO V4和DeepSORT的分车道车辆自动计数方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的阴影检测算法;汪明章;邢冠宇;;现代计算机(第06期);全文 *

Also Published As

Publication number Publication date
CN113781521A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN110232350B (zh) 一种基于在线学习的实时水面多运动目标检测跟踪方法
CN109344725B (zh) 一种基于时空关注度机制的多行人在线跟踪方法
Zhao et al. A spatial-temporal attention model for human trajectory prediction.
CN107122736B (zh) 一种基于深度学习的人体朝向预测方法及装置
CN109993770B (zh) 一种自适应时空学习与状态识别的目标跟踪方法
CN107798691B (zh) 一种基于视觉的无人机自主着陆地标实时检测跟踪方法
Yu et al. Deep temporal model-based identity-aware hand detection for space human–robot interaction
CN104778699B (zh) 一种自适应对象特征的跟踪方法
CN110334656A (zh) 基于信源概率加权的多源遥感图像水体提取方法及装置
CN110310305A (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN114708435A (zh) 基于语义分割的障碍物尺寸预测与不确定性分析方法
CN104637052A (zh) 基于目标引导显著性检测的对象跟踪方法
CN113781521B (zh) 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法
Alcantarilla et al. Visibility learning in large-scale urban environment
Venkatachalam et al. Optimizing Region Detection in Enhanced Infrared Images Using Deep Learning.
CN110689557A (zh) 一种基于kcf的改进型抗遮挡目标跟踪方法
Hwang et al. Object Detection for Cargo Unloading System Based on Fuzzy C Means.
Ikram et al. Real time hand gesture recognition using leap motion controller based on CNN-SVM architechture
CN112884799A (zh) 一种基于孪生神经网络的复杂场景下目标跟踪方法
CN114708645A (zh) 物件辨识装置及物件辨识方法
Sun et al. Real-time and fast RGB-D based people detection and tracking for service robots
Xingxin et al. Adaptive auxiliary input extraction based on vanishing point detection for distant object detection in high-resolution railway scene
CN117079095A (zh) 基于深度学习的高空抛物检测方法、系统、介质和设备
CN116434150A (zh) 面向拥挤场景的多目标检测跟踪方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant