CN112507845B - 基于CenterNet与深度关联矩阵的行人多目标跟踪方法 - Google Patents

基于CenterNet与深度关联矩阵的行人多目标跟踪方法 Download PDF

Info

Publication number
CN112507845B
CN112507845B CN202011391611.5A CN202011391611A CN112507845B CN 112507845 B CN112507845 B CN 112507845B CN 202011391611 A CN202011391611 A CN 202011391611A CN 112507845 B CN112507845 B CN 112507845B
Authority
CN
China
Prior art keywords
feature
pedestrian
network
centernet
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011391611.5A
Other languages
English (en)
Other versions
CN112507845A (zh
Inventor
王文靖
段志钊
张建明
王志坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yuyao Zhejiang University Robot Research Center
Zhejiang University ZJU
Original Assignee
Yuyao Zhejiang University Robot Research Center
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yuyao Zhejiang University Robot Research Center, Zhejiang University ZJU filed Critical Yuyao Zhejiang University Robot Research Center
Priority to CN202011391611.5A priority Critical patent/CN112507845B/zh
Publication of CN112507845A publication Critical patent/CN112507845A/zh
Application granted granted Critical
Publication of CN112507845B publication Critical patent/CN112507845B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于CenterNet与深度关联矩阵的行人多目标跟踪方法,首先采用CenterNet来提取输入图片中的行人特征,并以矩形框的形式检测出行人在输入图片中的位置,然后计算每个矩形框的中心,在CenterNet网络各阶段中提取出中心对应的特征,再将提取的特征拼接构建特征关联矩阵,再采用深度亲和力网络DAN对提取的特征进行压缩与关联匹配,进而实现复杂场景下行人多目标的跟踪。本发明是一种兼具高性能与高效率的行人多目标跟踪技术,其采用检测与Id关联匹配共享特征提取网络,联合训练的创新模式,降低效率的同时保障了较高的跟踪精度。

Description

基于CenterNet与深度关联矩阵的行人多目标跟踪方法
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于CenterNet与深度关联矩阵的行人多目标跟踪方法。
背景技术
在计算机视觉领域,行人目标跟踪是一个重要的课题。其融合了人工智能、图像处理、模式识别、自动控制等多种不同领域的知识,且在智能视频监控、人机交互、机器人视觉导航、目标识别、交通检测、运动分析等领域有重要应用。除了上述民用方面的应用之外,基于图像序列的运动目标检测与跟踪技术在军事领域,特别是制导和导航方面也有广泛的应用前景。
行人目标跟踪问题具有较高的难度而且缺乏高质量的训练数据,因此尽管目标跟踪近年来受到了广泛研究,但仍存在较大的发展空间。
目标跟踪的方法主要可以分成以下两大类:
(1)基于卡尔曼滤波:通过卡尔曼滤波建立目标的运动模型,然后通过匈牙利算法对前后帧之间的模型进行关联匹配。专利CN111768429A提出了一种基于卡尔曼滤波和行人重识别算法的隧道环境下行人目标跟踪方法,针对隧道环境下行人目标容易受到遮挡,采用卡尔曼滤波容易导致行人目标跟踪不能连续跟踪,将行人重识别网络引入,利用卡尔曼滤波和行人重识别网络进行行人目标的跟踪;最终提高了行人的识别、跟踪的准确率。
(2)基于深度学习:算法的主要任务是优化检测之间相似性或距离度量的设计。根据学习特征的不同,基于深度学习的多目标跟踪可以分为表观特征的深度学习,基于相似性度量的深度学习,以及基于高阶匹配特征的深度学习。专利CN111476817A提出了一种基于yolov3的多目标行人检测跟踪方法,针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构并应用于多目标行人跟踪。
然而,基于卡尔曼滤波的方法速度极快,但是精度不高。而深度学习方法因为深度特征对目标拥有强大的表示能力,可以达到很高的跟踪精度。不过现有的行人多目标跟踪算法效率较低,大多为离线跟踪算法,本发明提出了一种高效的在线跟踪方法,在保证精度的同时提高效率。
发明内容
针对现有行人多目标跟踪算法框架复杂、效率低的问题,本发明提供了一种基于CenterNet与深度关联矩阵的行人多目标跟踪方法。具体技术方案如下:
一种基于CenterNet与深度关联矩阵的行人多目标跟踪方法,首先采用CenterNet来提取输入图片中的行人特征,并以矩形框的形式检测出行人在输入图片中的位置,然后计算每个矩形框的中心,在CenterNet网络各阶段中提取出中心对应的特征,再将提取的特征拼接构建特征关联矩阵,再采用深度亲和力网络DAN对提取的特征进行压缩与关联匹配,进而实现复杂场景下行人多目标的跟踪。
进一步的,所述深度亲和力网络DAN的操作步骤如下:
(1)根据CenterNet检测的结果的中心位置信息在DLA特征提取网络中提取检测框的特征;
(2)根据提取的特征构建特征关联矩阵;
(3)使用特征压缩网络对三维特征关联矩阵进行特征压缩成二维特征关联矩阵;
(4)二维特征关联矩阵的结果进行目标匹配以及更新。
进一步的,包括训练阶段和测试阶段;
所述训练阶段步骤如下:
(1)将视频分帧成图片序列,对每帧图片中的行人进行矩形框标注;
(2)将标注好的相邻帧图片对输入CenterNet网络分别提取行人特征,网络参数共享;
(3)CenterNet检测网络预测出图片中的行人的位置,计算预测输出与标注真值的L2损失Ld,同时获取检测行人框的中心;
(4)将前后两帧检测结果中所有行人检测框的中心坐标映射回原特征提取网络,抽取出行人检测框中心在特征提取网络P3,P5,P7层特征图谱中对应的特征向量共1024维构成特征关联矩阵;
(5)利用特征压缩网络对特征关联矩阵进行特征压缩,得到二维特征关联矩阵;
(6)根据二维特征关联矩阵关联结果与标注真值的结果进行比较,计算关联损失La
(7)将总损失Ld+La通过反向传播反传,使用梯度下降法优化特征提取网络的权重,迭代多次,至总损失收敛后停止训练;
所述测试阶段步骤如下:
(1)将视频分帧成图片序列;
(2)将相邻帧图片对输入训练好的CenterNet网络分别提取行人特征,网络参数共享;
(3)CenterNet检测网络预测出图片中的行人的位置,同时获取检测行人框的中心;
(4)将前后两帧检测结果中所有行人检测框的中心坐标映射回原特征提取网络,抽取出行人检测框中心在特征提取网络P3,P5,P7层特征图谱中对应的特征向量共1024维构成特征关联矩阵;
(5)利用特征压缩网络对特征关联矩阵进行特征压缩,得到二维特征关联矩阵;
(6)根据二维特征关联矩阵关联结果对相邻帧图片对中的行人目标进行id关联,最终实现对相邻帧图片对中检测到的行人目标进行匹配跟踪。
相比于现有视频跟踪方法,本发明具有优势如下:
(1)检测分支与跟踪分支共用特征提取网络,实现了特征的高效复用,保证了跟踪的高精度;
(2)有效减少了网络参数,能达到实时效果,具备很高的效率;
(3)通过深度亲和力网络进行关联匹配,具有很强的鲁棒性。
附图说明
图1是基于CenterNet与深度关联矩阵的行人多目标跟踪方法的框架示意图;
图2是CenterNet示意图;
图3是采用深度亲和力网络DAN关联示意图;
图4a-图4d是跟踪结果示意图。
具体实施方式
如图1所示,本发明的基于CenterNet与深度关联矩阵的行人多目标跟踪方法,首先采用CenterNet来提取输入图片中的行人特征,并以矩形框的形式检测出行人在输入图片中的位置,然后计算每个矩形框的中心,在CenterNet网络各阶段中提取出中心对应的特征,再将提取的特征拼接构建特征关联矩阵,再采用深度亲和力网络DAN对提取的特征进行压缩与关联匹配,进而实现复杂场景下行人多目标的跟踪。
其中,如图2所示,CenterNet由基础的DLA34卷积神经网络作为特征提取网络,后面接三个卷积输出层分别回归检测目标的中心(x,y),检测目标中心的偏移量(Δx,Δy)以及检测目标的长宽(w,h)。预测矩形框表示为(x+Δx,y+Δy,w,h)。
特别地,CenterNet采用四倍的下采样,这样得到的特征图的分辨率远高于一般网络,因此无需多尺度预测和特征金字塔模块,在取得高精度检测效果的同时减少了网络参数量和计算量;
特别地,CenterNet所有检测到的中心点均出自热力图的峰值,无需进行极为耗时的非极大值抑制来进行后处理,可以做到在保证精度的同时达到较高的速度。
本发明采用深度亲和力网络DAN作为特征关联网络,用于将CenterNet提取到的特征进行前后关联,达到动态跟踪的目的,其关联过程如图3所示。
深度亲和力网络DAN的操作步骤如下:
(1)根据CenterNet检测的结果的中心位置信息在DLA特征提取网络中提取检测框的特征;
(2)根据提取的特征构建特征关联矩阵;
(3)使用特征压缩网络对三维特征关联矩阵进行特征压缩成二维特征关联矩阵;
(4)二维特征关联矩阵的结果进行目标匹配以及更新。
特别地,DAN是一种在线方法,因为它不使用未来的帧来预测物体轨迹。因此,它可以与连续视频流一起使用。
本发明的基于CenterNet与深度关联矩阵的行人多目标跟踪方法是一种兼具高性能与高效率的行人多目标跟踪技术,其采用检测与Id关联匹配共享特征提取网络,联合训练的创新模式,降低效率的同时保障了较高的跟踪精度,可用于视频监控中的行人目标跟踪,其技术流程包括训练和测试两个阶段。
训练阶段步骤如下:
(1)将视频分帧成图片序列,对每帧图片中的行人进行矩形框标注;
(2)将标注好的相邻帧图片对输入CenterNet网络分别提取行人特征,网络参数共享;
(3)CenterNet检测网络预测出图片中的行人的位置,计算预测输出与标注真值的L2损失Ld,同时获取检测行人框的中心;
(4)将前后两帧检测结果中所有行人检测框的中心坐标映射回原特征提取网络,抽取出行人检测框中心在特征提取网络P3,P5,P7层特征图谱中对应的特征向量共1024维构成特征关联矩阵;
(5)利用一个特征压缩网络对特征关联矩阵进行特征压缩,得到二维特征关联矩阵;
(6)根据二维特征关联矩阵关联结果与标注真值的结果进行比较,计算关联损失La
(7)将总损失Ld+La通过反向传播反传,使用梯度下降法优化特征提取网络的权重,迭代多次,至总损失收敛后停止训练。
测试阶段步骤如下:
(1)将视频分帧成图片序列;
(2)将相邻帧图片对输入训练好的CenterNet网络分别提取行人特征,网络参数共享;
(3)CenterNet检测网络预测出图片中的行人的位置,同时获取检测行人框的中心;
(4)将前后两帧检测结果中所有行人检测框的中心坐标映射回原特征提取网络,抽取出行人检测框中心在特征提取网络P3,P5,P7层特征图谱中对应的特征向量共1024维构成特征关联矩阵;
(5)利用一个特征压缩网络对特征关联矩阵进行特征压缩,得到二维特征关联矩阵;
(6)根据二维特征关联矩阵关联结果对相邻帧图片对中的行人目标进行id关联,最终实现对相邻帧图片对中检测到的行人目标进行匹配跟踪。
实施例
训练阶段:
(1)将采集的视频分帧成图片序列共65000张图片,对每帧图片I中的行人进行矩形框标注,每个矩形框标注为
Figure BDA0002811844510000061
(2)如图1所示,将标注好的相邻数据对It与It+1输入CenterNet网络分别提取行人特征,网络参数共享;
(3)CenterNet检测网络预测出图片It中的行人共M个。It+1中的行人共N个。每个行人位置用矩形框Dd=(x,y,w,h)表示,其中,x,y表示矩形框的左上顶点坐标。w,h表示矩形框的长和宽;
(4)计算网络检测结果与标注真值的L2损失Ld=||Dd-Dt||2,同时计算每个行人框的中心(Cx,Cy),其中,Cx=x+w/2,Cy=y+h/2;
(5)将图片It检测结果中所有行人检测框的中心坐标映射回原特征提取网络,抽取出行人检测框中心在特征提取网络P3,P5,P7层中对应的特征向量共520维特征T1xMx520,同理抽取图片It+1中特征T1xNx520。将特征T1xMx520与T1xNx520关联组合成特征关联矩阵AMxNx1024
(6)利用一个4层卷积神经网络对特征关联矩阵进行特征压缩,得到二维特征关联矩阵AMxN
(7)特征关联矩阵AMxN中,第m行第n列数值为y′,y′∈[0,1],表示图片It中第m个行人目标与图片It+1中第n个行人目标的匹配概率。根据二维特征关联矩阵关联结果与标注真值结果进行比较,计算关联损失La=-[ylogy′+(1-y)log(1-y′)]。其中,y∈{0,1};
(8)将总损失Ld+La通过反向传播反传,使用梯度下降法优化特征提取网络的权重,迭代120轮后,总损失收敛至0.78,停止训练。
测试阶段步骤如下:
(1)将测试视频分帧成图片序列I′;
(2)如图1所示,将相邻帧图片对It′与I′t+1输入训练好的CenterNet网络分别提取行人特征,网络参数共享;
(3)CenterNet检测网络预测出图片I′t中的行人共M′个。I′t+1中的行人共N′个。每个行人位置用矩形框D′d=(x,y,w,h)表示;同时计算每个行人框的中心(C′x,C′y);
(5)将图片I′t检测结果中所有行人检测框的中心坐标映射回原特征提取网络,抽取出行人检测框中心在特征提取网络P3,P5,P7层中对应的特征向量共520维特征T′1xM′x520,同理抽取图片I′t+1中特征T′1xN′x520。将特征T′1xM′x520与T′1xN′x520关联组合成特征关联矩阵A′M′xN′x1024
(6)利用训练好的4层卷积神经网络对特征关联矩阵进行特征压缩,得到二维特征关联矩阵A′M′xN′
(7)特征关联矩阵A′M′xN′中,第m行第n列数值为y′,y′∈[0,1],表示图片I′t中第m个行人目标与图片I′t+1中第n个行人目标的匹配概率。根据二维特征关联矩阵关联结果进行匹配更新,获得同一行人在I′t中的位置和id表示Tr=(xt,yt,wt,ht,id),将Tr依据时序串联即形成跟踪轨迹。部分跟踪结果如图4a-图4d所示。

Claims (1)

1.一种基于CenterNet与深度关联矩阵的行人多目标跟踪方法,其特征在于:首先采用CenterNet来提取输入图片中的行人特征,并以矩形框的形式检测出行人在输入图片中的位置,然后计算每个矩形框的中心,在CenterNet网络各阶段中提取出中心对应的特征,再将提取的特征拼接构建特征关联矩阵,再采用深度亲和力网络DAN对提取的特征进行压缩与关联匹配,进而实现复杂场景下行人多目标的跟踪;
所述深度亲和力网络DAN的操作步骤如下:
(1)根据CenterNet检测的结果的中心位置信息在DLA特征提取网络中提取检测框的特征;
(2)根据提取的特征构建特征关联矩阵;
(3)使用特征压缩网络对三维特征关联矩阵进行特征压缩成二维特征关联矩阵;
(4)二维特征关联矩阵的结果进行目标匹配以及更新;
包括训练阶段和测试阶段;
所述训练阶段步骤如下:
(1)将视频分帧成图片序列,对每帧图片中的行人进行矩形框标注;
(2)将标注好的相邻帧图片对输入CenterNet网络分别提取行人特征,网络参数共享;
(3)CenterNet检测网络预测出图片中的行人的位置,计算预测输出与标注真值的L2损失Ld,同时获取检测行人框的中心;
(4)将前后两帧检测结果中所有行人检测框的中心坐标映射回原特征提取网络,抽取出行人检测框中心在特征提取网络P3,P5,P7层特征图谱中对应的特征向量共1024维构成特征关联矩阵;
(5)利用特征压缩网络对特征关联矩阵进行特征压缩,得到二维特征关联矩阵;
(6)根据二维特征关联矩阵关联结果与标注真值的结果进行比较,计算关联损失La
(7)将总损失Ld+La通过反向传播反传,使用梯度下降法优化特征提取网络的权重,迭代多次,至总损失收敛后停止训练;
所述测试阶段步骤如下:
(1)将视频分帧成图片序列;
(2)将相邻帧图片对输入训练好的CenterNet网络分别提取行人特征,网络参数共享;
(3)CenterNet检测网络预测出图片中的行人的位置,同时获取检测行人框的中心;
(4)将前后两帧检测结果中所有行人检测框的中心坐标映射回原特征提取网络,抽取出行人检测框中心在特征提取网络P3,P5,P7层特征图谱中对应的特征向量共1024维构成特征关联矩阵;
(5)利用特征压缩网络对特征关联矩阵进行特征压缩,得到二维特征关联矩阵;
(6)根据二维特征关联矩阵关联结果对相邻帧图片对中的行人目标进行id关联,最终实现对相邻帧图片对中检测到的行人目标进行匹配跟踪。
CN202011391611.5A 2020-12-02 2020-12-02 基于CenterNet与深度关联矩阵的行人多目标跟踪方法 Active CN112507845B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011391611.5A CN112507845B (zh) 2020-12-02 2020-12-02 基于CenterNet与深度关联矩阵的行人多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011391611.5A CN112507845B (zh) 2020-12-02 2020-12-02 基于CenterNet与深度关联矩阵的行人多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112507845A CN112507845A (zh) 2021-03-16
CN112507845B true CN112507845B (zh) 2022-06-21

Family

ID=74968504

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011391611.5A Active CN112507845B (zh) 2020-12-02 2020-12-02 基于CenterNet与深度关联矩阵的行人多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112507845B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643228B (zh) * 2021-05-26 2024-01-19 四川大学 一种基于改进的CenterNet网络的核电站设备表面缺陷检测方法
CN113780058A (zh) * 2021-07-23 2021-12-10 北京旷视科技有限公司 用于确定视频中多目标轨迹的方法、装置、系统及存储介质
CN113971688B (zh) * 2021-11-04 2023-09-26 匀熵智能科技(无锡)有限公司 一种增强id重识别的无锚多目标跟踪方法
CN116935074B (zh) * 2023-07-25 2024-03-26 苏州驾驶宝智能科技有限公司 基于深度亲和网络自适应关联的多目标跟踪方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2998956C (en) * 2015-11-26 2023-03-21 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation
CN111274930B (zh) * 2020-04-02 2022-09-06 成都鼎安华智慧物联网股份有限公司 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法
CN111553934B (zh) * 2020-04-24 2022-07-15 哈尔滨工程大学 一种采用多维度融合的多船舶跟踪方法
CN111582213A (zh) * 2020-05-15 2020-08-25 北京铁科时代科技有限公司 一种基于Centernet的汽车识别方法

Also Published As

Publication number Publication date
CN112507845A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN112507845B (zh) 基于CenterNet与深度关联矩阵的行人多目标跟踪方法
CN113034548B (zh) 一种适用于嵌入式终端的多目标跟踪方法及其系统
CN109697726A (zh) 一种基于事件相机的端对端目标运动估计方法
CN111862145B (zh) 一种基于多尺度行人检测的目标跟踪方法
CN109341703A (zh) 一种全周期采用CNNs特征检测的视觉SLAM算法
CN105760846A (zh) 基于深度数据的目标检测与定位方法及系统
CN111079604A (zh) 面向大尺度遥感图像的微小目标快速检测方法
CN108280844B (zh) 一种基于区域候选框跟踪的视频目标定位方法
CN111027505B (zh) 一种基于显著性检测的分层多目标跟踪方法
CN108520203A (zh) 基于融合自适应多外围框与十字池化特征的多目标特征提取方法
Manana et al. A survey on vehicle detection based on convolution neural networks
CN111739053A (zh) 一种复杂场景下的在线多行人检测跟踪方法
Agarwal et al. Real-time* multiple object tracking (MOT) for autonomous navigation
CN111797785B (zh) 一种基于深度学习的多航空器跟踪方法
CN114898403A (zh) 一种基于Attention-JDE网络的行人多目标跟踪方法
Wu et al. Single shot multibox detector for vehicles and pedestrians detection and classification
CN111723747A (zh) 一种应用于嵌入式平台轻量型高效率的目标检测方法
Yi et al. Multi-Person tracking algorithm based on data association
CN114332444A (zh) 一种基于增量漂移聚类的复杂星空背景目标识别方法
CN116630376A (zh) 基于ByteTrack的无人机多目标跟踪方法
Wang et al. Research on military target detection method based on YOLO method
CN112432653B (zh) 基于点线特征的单目视觉惯性里程计方法
CN114820723A (zh) 一种基于联合检测和关联的在线多目标跟踪方法
Ying et al. GPK-YOLOv5s: Content-Aware Reassembly of Features and Self Attention for High Altitude Parabolic Detection and Tracking
Zhou et al. An anti-occlusion tracking system for UAV imagery based on Discriminative Scale Space Tracker and Optical Flow

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant