CN115294168A - 一种跟踪目标的方法、装置及电子设备 - Google Patents

一种跟踪目标的方法、装置及电子设备 Download PDF

Info

Publication number
CN115294168A
CN115294168A CN202210817438.3A CN202210817438A CN115294168A CN 115294168 A CN115294168 A CN 115294168A CN 202210817438 A CN202210817438 A CN 202210817438A CN 115294168 A CN115294168 A CN 115294168A
Authority
CN
China
Prior art keywords
target
current
image
tracking
lost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210817438.3A
Other languages
English (en)
Inventor
陈硕
陈金
李响
张渊佳
孟祥松
张宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianyi Cloud Technology Co Ltd
Original Assignee
Tianyi Cloud Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianyi Cloud Technology Co Ltd filed Critical Tianyi Cloud Technology Co Ltd
Priority to CN202210817438.3A priority Critical patent/CN115294168A/zh
Publication of CN115294168A publication Critical patent/CN115294168A/zh
Priority to PCT/CN2022/141363 priority patent/WO2024011852A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种跟踪目标的方法、装置及电子设备,用以提升目标跟踪的准确性。该方法包括:获取丢失目标的第一坐标;其中,所述第一坐标指示,所述丢失目标的预设关键点在预设坐标系中的位置;基于当前图像中当前目标的当前信息,确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值;其中,所述当前信息包括所述当前目标的当前视觉特征和所述预设关键点的当前坐标;若是,则获取所述丢失目标的第一视觉特征,并确定所述第一视觉特征和所述当前视觉特征之间的相似度;确定所述相似度大于相似度阈值,则所述当前目标为所述丢失目标。

Description

一种跟踪目标的方法、装置及电子设备
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种跟踪目标的方法、装置及电子设备。
背景技术
多目标跟踪(Multiple Object Tracking,MOT)是指在任一图像序列中,识别图像序列中每一帧图像中的目标(例如,行人),然后将不同帧中目标对应,确定目标运动轨迹的图像识别算法。目前多目标跟踪方法(算法)的改进多见于检测到的目标之间的相似性判断,以及高阶特征的深度学习,对于丢失目标的跟踪的关注较少。
因而当目标丢失后又重新出现,尤其是丢失时间较长后又重新出现的目标,极易被误识别为新增目标,从而导致出现目标跟踪不准确的问题。
发明内容
本申请提供了一种跟踪目标的方法、装置及电子设备,用以提升目标跟踪的准确性。
第一方面,本申请提供一种跟踪目标的方法,包括:
获取丢失目标的第一坐标;其中,所述丢失目标为在第一图像中出现,且在第二图像中未出现的目标;所述第一图像的拍摄时间先于所述第二图像,且所述第一图像和所述第二图像的拍摄时间间隔大于第一设定阈值;所述第一坐标指示,所述丢失目标的预设关键点在预设坐标系中的位置;
基于当前图像中当前目标的当前信息,确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值;其中,所述当前信息包括所述当前目标的当前视觉特征和所述预设关键点的当前坐标;
若是,则获取所述丢失目标的第一视觉特征,并确定所述第一视觉特征和所述当前视觉特征之间的相似度;
确定所述相似度大于相似度阈值,则所述当前目标为所述丢失目标。
上述申请实施例中所提供的跟踪目标的方法,通过确定每帧(张)图像中当前目标的关键点(例如,中心点)坐标与丢失目标的关键点坐标之间的第一距离,以及第一距离与距离阈值的大小关系,初步判断当前目标是否为丢失目标之一。若第一距离小于距离阈值,则预测当前目标因为某种原因被遮挡导致跟踪失败,成为丢失目标;并且当前图像中由于遮挡原因消失而重新出现,因而可进一步利用视觉特征进行对比,确定当前目标为丢失目标。本申请实施例避免直接使用特征对比导致目标跟踪过程中的效率降低的问题,同时避免了跟踪目标过程中因目标丢失跟踪失败,丢失目标再次出现时误将丢失目标检测为新目标的问题,从而有效提升了跟踪目标的准确性。
一种可能的实施方式,所述确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值之后,还包括:
若否,确定所述当前目标与第三图像中的追踪目标是否匹配;其中,所述第三图像为拍摄时间先于所述当前图像的图像,所述第三图像与所述当前图像之间的拍摄时间间隔小于第二设定阈值;
若是,则确定所述当前目标为所述追踪目标;基于所述当前信息更新所述追踪目标的追踪信息;
若否,则确定所述当前目标为新增目标,将所述新增目标和当前信息添加至目标跟踪列表。
一种可能的实施方式,所述追踪信息包括所述追踪目标的目标轨迹;
则所述基于所述当前信息更新所述追踪目标的追踪信息,包括:
确定所述当前目标的当前状态信息;其中,所述当前状态信息包括所述当前目标在所述当前图像中的当前速度和当前加速度;
基于所述追踪信息中所述追踪目标的第一追踪轨迹和所述当前状态信息,利用卡尔曼滤波法,将追踪信息中的所述第一追踪轨迹更新为第二追踪轨迹。
一种可能的实施方式,所述获取丢失目标的第一信息之前,还包括:
基于所述第一图像中第一目标的第一状态信息,利用卡尔曼滤波法,预测所述第一目标在中间图像中的中间状态信息;其中,所述中间图像的拍摄时间位于所述第一图像和所述第二图像的拍摄时间之间,所述第一状态信息包括所述第一目标在所述第一图像中的位置和速度;
若基于所述中间状态信息,确定所述中间图像不包括对应于所述第一目标的可能第一目标,则确定所述第一目标为可能丢失目标;
基于所述第一状态信息,利用卡尔曼滤波法,预测所述可能丢失目标在所述第二图像中的第二状态信息;
若基于所述第二状态信息,确定所述第二图像不包括对应于所述可能丢失目标的可能第一目标,则确定所述可能丢失目标为丢失目标;
确定所述丢失目标的所述预设关键点的第一坐标,以及所述丢失目标的所述第一视觉特征;
建立所述第一坐标和所述第一视觉特征与所述丢失目标之间的对应关系。
一种可能的实施方式,所述若基于所述中间状态信息,确定所述中间图像不包括对应于所述可能丢失目标的可能第一目标,则确定所述可能第一目标为可能丢失目标,包括:
基于所述中间状态信息,在所述中间图像中确定所述可能第一目标的数量大于1;
基于匈牙利算法,将所述可能第一目标与第一目标进行匹配,得到匹配目标对;
确定不属于所述匹配目标对的第一目标为可能丢失目标。
第二方面,本申请提供一种跟踪目标的装置,包括:
坐标单元:用于获取丢失目标的第一坐标;其中,所述丢失目标为在第一图像中出现,且在第二图像中未出现的目标;所述第一图像的拍摄时间先于所述第二图像,且所述第一图像和所述第二图像的拍摄时间间隔大于第一设定阈值;所述第一坐标指示,所述丢失目标的预设关键点在预设坐标系中的位置;
阈值单元:用于基于当前图像当前目标的当前信息,确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值;其中,所述当前信息包括所述当前目标的当前视觉特征和所述预设关键的当前坐标;
相似单元:用于若是,则获取所述丢失目标的第一视觉特征,并确定所述第一视觉特征和所述当前视觉特征之间的相似度;
丢失单元:用于确定所述相似度大于相似度阈值,则所述当前目标为所述丢失目标。
一种可能的实施方式,所述装置还包括匹配单元,所述匹配单元具体用若否,确定所述当前目标与第三图像中的追踪目标是否匹配;其中,所述第三图像为拍摄时间先于所述当前图像的图像,所述第三图像与所述当前图像之间的拍摄时间间隔小于第二设定阈值;若是,则确定所述当前目标为所述追踪目标;基于所述当前信息更新所述追踪目标的追踪信息;若否,则确定所述当前目标为新增目标,将所述新增目标和当前信息添加至目标跟踪列表。
一种可能的实施方式,所述追踪信息包括所述追踪目标的目标轨迹,则所述匹配单元还用于确定所述当前目标的当前状态信息;其中,所述当前状态信息包括所述当前目标在所述当前图像中的当前速度和当前加速度;基于所述追踪信息中所述追踪目标的第一追踪轨迹和所述当前状态信息,利用卡尔曼滤波法,将追踪信息中的所述第一追踪轨迹更新为第二追踪轨迹。
一种可能的实施方式,所述装置还包括对应单元,所述对应单元具体用于基于所述第一图像中第一目标的第一状态信息,利用卡尔曼滤波法,预测所述第一目标在中间图像中的中间状态信息;其中,所述中间图像的拍摄时间位于所述第一目标和所述第二图像的拍摄时间,所述第一状态信息包括所述第一目标在所述第一图像中的位置和速度;若基于所述中间状态信息,确定所述中间图像不包括对应于所述第一目标的可能第一目标,则确定所述可能丢失目标为丢失目标;确定所述丢失目标的所述预设关键点的第一坐标,以及所述丢失目标的所述第一视觉特征;建立所述第一坐标和所述第一视觉特征与所述丢失目标之间的对应关系。
一种可能的实施方式,所述对应单元还用于基于所述中间状态信息,在所述中间图像中确定所述可能第一目标的数量大于1;基于匈牙利算法,将所述可能第一目标与第一目标进行匹配,得到匹配目标对;确定不属于所述匹配目标对的第一目标为可能丢失目标。
第三方面,本申请提供一种可读存储介质,包括,
存储器,
所述存储器用于存储指令,当所述指令被处理器执行时,使得包括所述可读存储介质的装置完成如第一方面及任一种可能的实施方式所述的方法。
第四方面,本申请提供一种电子设备,包括:
存储器,用于存放计算机程序;
处理器,用于执行所述存储器上所存放的计算机程序时,以实现如第一方面及任一种可能的实施方式所述的方法。
附图说明
图1为本申请实施例所提供的一种跟踪目标的方法的流程示意图;
图2为本申请实施例所提供的确定第一距离的示意图;
图3为本申请实施例所提供的进行目标匹配的流程示意图;
图4为本申请实施例提供的一种由于遮挡导致跟踪目标成为丢失目标后又复现的示意图;
图5为本申请实施例提供的一种跟踪目标的装置的结构示意图;
图6为本申请实施例提供的一种跟踪目标的电子设备的结构示意图。
具体实施方式
针对现有技术中目标跟踪不准确的问题,本申请实施例提出一种跟踪目标的方法:在检测到任一图像中的目标之后,确定该目标的关键点与丢失目标的关键点的距离,并将该距离与距离阈值进行对比。若该距离小于距离阈值,则进一步确定该目标的视觉特征与丢失目标视觉特征的相似度,并基于相似度确定该目标是否为丢失目标。
上述申请实施例中,通过保存丢失目标的信息,并在图像中检测出目标之初,验证目标的预设关键点和丢失目标预设关键点之间的距离与距离阈值的关系,进行目标是否为预设目标的先验性判断,使得本申请实施例可基于丢失目标,针对新检测出的目标进行重匹配,避免了由于丢失目标因长时间遮挡而再次出现时被误认为新目标的问题,从而提升了目标跟踪的准确性。同时,由于在先验性判断阶段,仅做关键点之间的距离判断,而未进行更深度地特征对比,因而可高效率地在多目标追踪中对丢失目标进行初步的遴选,而排除关键点距离较远的非丢失目标,从而确保本申请实施例中的方法不影响丢失目标跟踪过程中的效率。
为了更好的理解上述技术方案,下面通过附图以及具体实施例对本申请技术方案做详细的说明,应当理解本申请实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请的技术方案的限定,在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互组合。
请参考图1,本申请提出一种跟踪目标的方法,用以提升跟踪目标的准确性,该方法具体包括以下实现步骤:
步骤101:获取丢失目标的第一坐标。
其中,所述丢失目标为在第一图像中出现,且在第二图像中未出现的目标。第一图像的拍摄时间先于第二图像,且第一图像和第二图像的拍摄时间间隔大于第一设定阈值。第一坐标指示,丢失目标的预设关键点在预设坐标系中的位置。该预设坐标系可以是物理坐标系。
在本申请的一种实施例中,预设关键点可以是中心点。第一视觉特征可以是丢失目标的关键部位的轮廓特征,和/或姿态特征信息。例如,丢失目标为行人,则第一视觉特征可以是行人的头部轮廓信息、肩部轮廓信息,也可以是基于头、肩轮廓特征所确定的头肩比信息等。
为确保在检测到每一图像中的目标后,都能获取丢失目标的第一信息,并执行步骤102-104,以下针对丢失目标以及丢失目标的第一信息的确定方法进行描述。
首先需要说明的是,本申请实施例中丢失目标指示丢失时间超过第一设定阈值的长期丢失目标。并且,由于图像拍摄时间间隔固定,本申请实施例中所述的丢失时间、拍摄时间间隔均可基于相应图像位于图像序列中的位置确定。因此,在确定任一图像(即第一图像)中的目标是否为丢失目标时,可基于以下方式确定:在利用目标检测框架确定第一图像中的第一目标后,可进一步基于深度学习模型(例如,神经卷积)确定第一目标的第一状态信息。其中,第一状态信息包括第一目标在第一图像中的位置信息和速度信息。速度信息可以是第一目标在第一图像所对应的瞬时速度以及加速度。
然后,基于上述第一状态信息,利用卡尔曼预测法预测第一目标在中间图像中的中间状态信息。其中,中间图像为与第一图像、第二图像一致的位于以时间为序的图像序列中的图像,且中间图像为拍摄时间晚于第一图像,而先于第二图像的任一图像。相应地,第二图像为拍摄时间为第一图像之后,且与第一图像的拍摄时间间隔超过第一设定阈值的中间图像。
在本申请的一种实施例中,图像序列可以是源自同一图像采集设备所采集的图像帧序列,则第一设定阈值可以设定为15帧,因而第二图像至少为第一图像之后的第15帧中间图像,或者拍摄时间更晚的中间图像。
接着,可基于中间状态信息,在中间图像中确定对应于第一目标的可能第一目标。
若基于中间状态信息,在中间图像中唯一确定对应于第一目标的可能第一目标,则可根据该可能第一目标更新第一图像中第一目标的运动轨迹及其它信息。也可以先基于可能第一目标的视觉特征与第一目标的第一视觉特征进行对比,以确定可能第一目标与第一目标之间的一一对应关系,继而根据该可能第一目标更新第一图像中第一目标的运动轨迹及其它信息。
若基于中间状态信息,确定中间图像中不包括对应于第一目标的可能第一目标,则确定第一目标为可能丢失目标。具体地,若基于中间状态信息中的位置信息,确定在中间图像上相应位置不存在目标,或唯一存在中间目标但该中间目标的速度信息与中间状态信息中的速度信息的误差超过误差阈值,则确定中间图像不包括对应于第一目标的可能第一目标。另外,若基于中间状态信息,确定多个可能第一目标(数量大于1),则可利用匈牙利算法进一步进行匹配,以验证对应关系。该方法尤其适用于多个第一目标,且每个第一目标在中间图像中存在多个可能第一目标的情况。利用匈牙利算法,可得到相应的匹配目标对。其中,匹配目标对中的目标为在不同图像中(例如,第一图像和中间图像)中的同一目标。接着可将未被匹配的第一目标,即不属于匹配目标对中的第一目标确定为可能丢失目标。
确定可能丢失目标之后,在检测每一中间图像的中间目标,并在任两张(中间)图像之间进行中间目标的匹配,完成相应的中间目标(或第一目标)的追踪后,均利用未匹配成功的中间目标与可能丢失目标进行尝试性地匹配。若匹配成功,则将匹配成功的中间目标与可能丢失目标的作为同一目标继续追踪。如均未匹配成功,则在与第二图像中的第二目标匹配失败后,确定第二图像不包括对应于可能丢失目标的可能第一目标,因而可确定可能丢失目标为丢失目标。
进一步地,确定该丢失目标的预设关键点的第一坐标,丢失目标的第一视觉特征;并建立第一坐标和第一视觉特征与丢失目标之间的对应关系。上述丢失目标以及丢失目标的第一信息可存于长期丢失目标容器中。
需要说明的是,本申请实施例考虑到使用目标检测框架/深度学习模型针对目标进行检测时所可能出现的误检、漏检的情况,在中间图像中可能第一目标未与第一目标匹配之初,仅进行可能丢失的判断,在后续设定数量的中间图像,依然进行关于可能丢失目标的匹配,直到第二图像。因而,上述可能丢失目标是对第一目标可能丢失的标记步骤,该步骤之后,本申请实施例中并非直接将可能丢失目标视作丢失的目标,而在后续中间图像中间目标的追踪过程中,仍然对可能丢失目标与其它第一目标(顺利跟踪到的第一目标)执行同样的跟踪步骤,以期在后续某一中间图像中跟踪到该可能丢失目标,直到第二图像所对应的第一时间间隔为止,确定该可能丢失目标为丢失目标。上述方法可有效避免目标检测框架/深度学习模型针对目标进行检测时所可能出现的误检、漏检等原因对于丢失目标(即目标长期被遮挡)的判断,也可避免短期丢失目标保存太多而内存不支持的问题。
步骤102:基于确定当前图像中当前目标的当前信息,确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值。
其中,当前信息包括当前目标的当前视觉特征和预设关键点的当前坐标。
值得注意的,当前图像的拍摄时间在所述第二图像的拍摄时间之后。本申请实施例中所描述的预设关键点可以是目标任一点的坐标,且所有目标(包括丢失目标、当前目标等)的预设关键点都相同。
具体来说,上述当前目标同样可基于目标检测框架确定,而当前信息中的当前视觉特征以及预设关键点可基于深度学习模型/框架确定。例如,ResNet-34作为主干网络的深度学习模型。当前坐标的确定可以通过确定预设关键点在目标检测框的位置,并将该位置转化为预设坐标系中的坐标得到。当前坐标的确定也可以是通过基于预设关键点的关键点信息,确定当前目标的预设关键点,进而该确定该预设关键点在预设坐标系中的坐标得到。该预设坐标系可以是物理坐标系。
进一步地,利用该当前坐标,确定第一坐标与当前坐标之间的第一距离。
本申请实施例中基于第一距离进行先验性的判断:确定该第一距离是否小于距离阈值。图2为本申请实施例所提供的确定第一距离的示意图。如图2所示,当前目标为a,b;丢失目标为2,3,4。由于当前目标数量为2,因而第一距离有两组,分别为当前目标a与丢失目标2,3,4之间的第一距离,以及当前目标b与丢失目标2,3,4之间的第一距离。在确定每一当前目标的第一距离之后,可基于第一距离与距离阈值之间的大小关系,确定第一距离是否小于距离阈值。
若否,即第一距离大于等于距离阈值,则判断当前目标与丢失目标无关。因而当前目标可能是新增目标,也可能是当前图像之前的第三图像中正在追踪的追踪目标。其中,第三图像为拍摄时间先于所述当前图像的图像,所述第三图像与所述当前图像之间的拍摄时间间隔小于第二设定阈值。以下针对当前目标是否为新增目标或追踪目标的判断做进一步描述。
首先,确定当前目标与第三图像中的追踪目标是否匹配。确定方法可以和上述确定第一目标与中间目标是否匹配的方法一致:
(一)基于当前目标的当前视觉特征与第三图像中追踪目标的追踪视觉特征,确定当前视觉特征与追踪视觉特征的第一相似度是否大于相似度阈值。该相似度阈值可作为同一目标的判断指标。若第一相似度大于相似度阈值,则确定当前目标与追踪目标为同一目标,即当前目标与追踪目标匹配。
进一步地,根据当前目标以及追踪目标的状态信息(例如,速度、加速度、姿态信息和/或位置信息)确定当前目标,即追踪目标的轨迹,完成对于追踪目标的跟踪。
(二)确定第三图像中第三目标与当前目标的交并比,也可以确定第三目标所在检测框与当前目标所在检测框的交并比。并基于上述交并比,利用匈牙利算法,匹配第三目标与当前目标。
若基于上述方法确定当前目标与追踪目标匹配,则确定当前目标为追踪目标,进而可基于当前目标的当前信息更新追踪目标的追踪信息。
若确定当前目标与追踪目标不匹配,则确定当前目标为新增目标,继而可将新增目标和当前信息添加至目标跟踪列表,用于在后续图像检测中针对该新增目标进行跟踪。
在本申请实施例中,追踪信息可包括追踪目标的目标轨迹。因此,在基于当前信息更新追踪目标的追踪信息时,还需确定当前目标的当前状态信息。其中,当前状态信息包括当前目标在当前图像中的当前速度和当前加速度。然后,基于当前状态信息,以及追踪信息中的第一追踪轨迹,通过卡尔曼滤波法更新追踪信息,即更新第一追踪轨迹,得到第二追踪轨迹。
进一步地,本申请实施例在确定追踪目标、丢失目标或可能丢失目标时,可将上述卡尔曼滤波法,以及结合匈牙利算法结合目标检测网络相应目标的检测/匹配。图3为本申请实施例所提供的进行目标匹配的流程示意图。如图3所示,将以图像(帧/张)拍摄时间为顺序的图像序列输入目标检测网络。例如,1号图像和2号图像。其中1号图像先于2号图像拍摄。该目标检测网络可以是FairMOT网络。该目标检测网络基于跟踪器设置,且跟踪器基于检测框以及检测框中目标特征值确定1号图像和2号图像中目标的匹配关系。具体地确定方法可以是,通过跟踪器中的目标框确定1号图像中的1号目标,并进行卡尔曼滤波法,确定预测框。该预测框为1号目标预计位于2号图像中位置的估测值。同时确定1号目标在1号图像的特征值(特征值矩阵),利用该特征值和预测框确定距离代价矩阵。同理,2号图像也可得到相应2号目标的距离代价矩阵。基于1号图像、2号图像的距离代价矩阵就可进行匈牙利匹配,使得跟踪器确定1号图像和2号图像中跟踪器的匹配关系。进一步地,目标检测网络可基于跟踪器的匹配关系输出各目标的轨迹信息,即基于相应目标在1号图像、2号图像位置所得的轨迹信息。相应地,当基于上述目标检测网络未匹配成功的目标,则可相应的确定为可能丢失目标或丢失目标。
若是,则执行步骤103。
步骤103:若是,则获取所述丢失目标的第一视觉特征,并确定所述第一视觉特征和所述当前视觉特征之间的相似度。
具体来说,若是,则可初步确定当前目标可能是相应的丢失目标,而非追踪目标或新增目标,因而为了确定当前目标为丢失目标,需进一步确定第一视觉特征和当前视觉特征之间的相似度。
在本申请所提供的一种实施例中,第一视觉特征和当前视觉特征之间的相似度可以通过表示第一视觉特征的第一特征向量与当前视觉特征的当前特征向量在相应的向量空间中的距离确定。例如,第一特征向量和当前特征向量之间的马氏距离或欧式距离。
在本申请所提供的又一种实施例中,也可以通过第一特征向量与当前特征向量的余弦值确定第一视觉特征和当前视觉特征之间的相似度。
步骤104:确定所述相似度大于相似度阈值,则所述当前目标为所述丢失目标。
具体来说,当相似度小于或等于相似度阈值,可确定当前目标与丢失目标非同一目标,并且当前目标为出现在丢失目标附近的新增目标。当相似度大于相似度阈值,则确定当前目标由于遮挡等原因而消失,现又重新出现(即复现)的丢失目标。
本申请实施例中通过保存丢失目标的信息,并对于当前图像的当前目标先进行关于丢失目标的验证,可有效避免将丢失目标误检为新增目标或追踪目标的问题,因而有效提升了跟踪目标,尤其是多目标跟踪过程中的准确性。
基于上述步骤101-104,以下针对视频帧中多目标跟踪输入FairMOT网络进行举例说明。
首先针对以下变量进行介绍。activated_stracks:跟踪状态良好的追踪目标,以及该追踪目标的已跟踪到的轨迹信息。lost_stracks:短期丢失目标。l_lost_stracks:丢失目标。refind_stracks:跟丢之后重新找回的目标。Tracker:任一种类型的目标的轨迹信息。
当视频帧输入FairMOT网络后,FairMOT网络首先针对视频帧中的第一帧图像进行轨迹初始化。先确定第一帧图像中的第一目标。当第一帧图像中包含多个第一目标时,则分别为各第一目标设置tracker。进而可针对每一目标的tracker使用卡尔曼滤波法,进行轨迹信息的预测,并保存于activated_stracks容器中。
接着针对第二帧图像进行处理。仍然先确定第二帧图像中的第二目标,并基于activated_stracks容器中所保存的各第一目标的tracker,基于第一目标和第二目标的特征的相似度,确定与第二目标匹配的第一目标。当第二目标和第一目标匹配成功时,可基于第二目标的tracker更新第一目标的tracker,并保存于activated_stracks容器。对于未与第二目标匹配成功的第一目标,则确定为短期丢失目标,将其taracker保存于lost_stracks容器。对于未与第一目标匹配的第二目标,则可以确定为新增目标,则为该新增目标设置新的tracker,并保存于activated_stracks容器中。
接着针对第三帧图像进行处理,可继续先确定第三帧图像中的第三目标。然后基于上述方法确定第三目标与activated_stracks容器以及lost_stracks容器中tracker对应目标的匹配关系。若第三目标与lost_stracks容器中tracker对应目标匹配,则将相应目标的tracker添加至refind_stracks容器中,并在lost_stracks容器删除该tracker。若第三目标未与lost_stracks容器中tracker对应目标匹配,则继续执行其它步骤,并在第四帧图像中重复上述第二帧、第三帧的处理步骤。
若lost_stracks容器中tracker在设定数量的图像帧都未能匹配成功时,则确定该tracker所对应的短期丢失目标为丢失目标,将该tracker从lost_stracks容器删除,并添加至l_lost_stracks容器中。
此后的每一帧图像的都首先如步骤101中所述的步骤。例如,第n帧,即确定第n帧图像中的第n目标后,确定第n帧图像中第n目标的中心点与l_lost_stracks容器中丢失目标的中心点距离。
若该中心点距离大于等于距离阈值,则确定该第n目标非丢失目标,则进一步可匹配第n目标与设定图像中目标,对于未匹配成功的目标,则可以确定为新增目标,对于匹配成功的目标,则可以确定为跟踪目标,则基于第n目标的tracker更新activated_stracks容器相应tracker,达到跟踪目标的目的。
若中心点距离小于距离阈值,则确定第n目标为可能丢失目标,则需进一步提取从l_lost_stracks容器中获取该可能丢失目标的特征数据,以进行特征匹配。若匹配成功,则确定可能丢失目标为丢失目标,则将丢失目标的tracker从l_lost_stracks容器删除,同时基于该丢失目标在第n帧图像中作为第n目标时的tracker更新l_lost_stracks容器中该丢失目标的taracker,并添加该更新的tracker至refind_stracks容器中。
图4为本申请实施例提供的一种由于遮挡导致跟踪目标成为丢失目标后又复现的示意图。如图4所示,当FairMOT网络在第n帧图像中检测出两个目标,分别是ID为1的目标以及ID为2的目标。在后续的图像帧中,ID为1的目标持续未被匹配,FairMOT网络仅检测出ID为2的目标,例如第n+m帧图像,直到第n+m+i帧图像,FairMOT网络又重新检测出两个目标。尽管ID为1的目标长期丢失,但由于上述l_lost_strackers容器中所保存的丢失目标,通过预设关键点(即中心点)距离的对应,FairMOT网络可准确地跟踪到其中之一目标为ID为1的目标,从而避免了误将丢失目标判断为新目标(例如,ID为3的目标)进行跟踪,并有效提升了跟踪目标的准确性。
基于同一发明构思,本申请实施例中提供一种跟踪目标的装置,该装置与前述图1所示的跟踪目标的方法对应,该装置的具体实施方式可参见前述方法实施例部分的描述,重复之处不再赘述,参见图5,该装置包括:
坐标单元501:用于获取丢失目标的第一坐标。
其中,所述丢失目标为在第一图像中出现,且在第二图像中未出现的目标;所述第一图像的拍摄时间先于所述第二图像,且所述第一图像和所述第二图像的拍摄时间间隔大于第一设定阈值;所述第一坐标指示,所述丢失目标的预设关键点在预设坐标系中的位置。
阈值单元502:用于基于当前图像当前目标的当前信息,确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值。
其中,所述当前信息包括所述当前目标的当前视觉特征和所述预设关键的当前坐标。
相似单元503:用于若是,则获取所述丢失目标的第一视觉特征,并确定所述第一视觉特征和所述当前视觉特征之间的相似度。
丢失单元504:用于确定所述相似度大于相似度阈值,则所述当前目标为所述丢失目标。
所述跟踪目标的装置还包括匹配单元,所述匹配单元具体用若否,确定所述当前目标与第三图像中的追踪目标是否匹配;其中,所述第三图像为拍摄时间先于所述当前图像的图像,所述第三图像与所述当前图像之间的拍摄时间间隔小于第二设定阈值;若是,则确定所述当前目标为所述追踪目标;基于所述当前信息更新所述追踪目标的追踪信息;若否,则确定所述当前目标为新增目标,将所述新增目标和当前信息添加至目标跟踪列表。
所述追踪信息包括所述追踪目标的目标轨迹,则所述匹配单元还用于确定所述当前目标的当前状态信息;其中,所述当前状态信息包括所述当前目标在所述当前图像中的当前速度和当前加速度;基于所述追踪信息中所述追踪目标的第一追踪轨迹和所述当前状态信息,利用卡尔曼滤波法,将追踪信息中的所述第一追踪轨迹更新为第二追踪轨迹。
所述跟踪目标的装置还包括对应单元,所述对应单元具体用于基于所述第一图像中第一目标的第一状态信息,利用卡尔曼滤波法,预测所述第一目标在中间图像中的中间状态信息;其中,所述中间图像的拍摄时间位于所述第一目标和所述第二图像的拍摄时间,所述第一状态信息包括所述第一目标在所述第一图像中的位置和速度;若基于所述中间状态信息,确定所述中间图像不包括对应于所述第一目标的可能第一目标,则确定所述可能丢失目标为丢失目标;确定所述丢失目标的所述预设关键点的第一坐标,以及所述丢失目标的所述第一视觉特征;建立所述第一坐标和所述第一视觉特征与所述丢失目标之间的对应关系。
所述对应单元还用于基于所述中间状态信息,在所述中间图像中确定所述可能第一目标的数量大于1;基于匈牙利算法,将所述可能第一目标与第一目标进行匹配,得到匹配目标对;确定不属于所述匹配目标对的第一目标为可能丢失目标。
基于同一发明构思,本申请实施例还提供一种可读存储介质,包括:
存储器,
所述存储器用于存储指令,当所述指令被处理器执行时,使得包括所述可读存储介质的装置完成如上所述的跟踪目标的方法。
基于与上述跟踪目标的方法相同的发明构思,本申请实施例中还提供了一种电子设备,所述电子设备可以实现前述一种跟踪目标的方法的功能,请参考图6,所述电子设备包括:
至少一个处理器601,以及与至少一个处理器601连接的存储器602,本申请实施例中不限定处理器601与存储器602之间的具体连接介质,图6中是以处理器601和存储器602之间通过总线600连接为例。总线600在图6中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线600可以分为地址总线、数据总线、控制总线等,为便于表示,图6中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。或者,处理器601也可以称为控制器,对于名称不做限制。
在本申请实施例中,存储器602存储有可被至少一个处理器601执行的指令,至少一个处理器601通过执行存储器602存储的指令,可以执行前文论述跟踪目标的方法。处理器601可以实现图5所示的装置中各个模块的功能。
其中,处理器601是该装置的控制中心,可以利用各种接口和线路连接整个该控制设备的各个部分,通过运行或执行存储在存储器602内的指令以及调用存储在存储器602内的数据,该装置的各种功能和处理数据,从而对该装置进行整体监控。
在一种可能的设计中,处理器601可包括一个或多个处理单元,处理器601可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器601中。在一些实施例中,处理器601和存储器602可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器601可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的跟踪目标的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器602作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器602可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等。存储器602是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器602还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
通过对处理器601进行设计编程,可以将前述实施例中介绍的跟踪目标的方法所对应的代码固化到芯片内,从而使芯片在运行时能够执行图1所示的跟踪目标的方法的步骤。如何对处理器601进行设计编程为本领域技术人员所公知的技术,这里不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:通用串行总线闪存盘(Universal Serial Bus flash disk)、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种跟踪目标的方法,其特征在于,包括:
获取丢失目标的第一坐标;其中,所述丢失目标为在第一图像中出现,且在第二图像中未出现的目标;所述第一图像的拍摄时间先于所述第二图像,且所述第一图像和所述第二图像的拍摄时间间隔大于第一设定阈值;所述第一坐标指示,所述丢失目标的预设关键点在预设坐标系中的位置;
基于当前图像中当前目标的当前信息,确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值;其中,所述当前信息包括所述当前目标的当前视觉特征和所述预设关键点的当前坐标;
若是,则获取所述丢失目标的第一视觉特征,并确定所述第一视觉特征和所述当前视觉特征之间的相似度;
确定所述相似度大于相似度阈值,则所述当前目标为所述丢失目标。
2.如权利要求1所述的方法,其特征在于,所述确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值之后,还包括:
若否,确定所述当前目标与第三图像中的追踪目标是否匹配;其中,所述第三图像为拍摄时间先于所述当前图像的图像,所述第三图像与所述当前图像之间的拍摄时间间隔小于第二设定阈值;
若是,则确定所述当前目标为所述追踪目标;基于所述当前信息更新所述追踪目标的追踪信息;
若否,则确定所述当前目标为新增目标,将所述新增目标和当前信息添加至目标跟踪列表。
3.如权利要求2所述的方法,其特征在于,所述追踪信息包括所述追踪目标的目标轨迹;
则所述基于所述当前信息更新所述追踪目标的追踪信息,包括:
确定所述当前目标的当前状态信息;其中,所述当前状态信息包括所述当前目标在所述当前图像中的当前速度和当前加速度;
基于所述追踪信息中所述追踪目标的第一追踪轨迹和所述当前状态信息,利用卡尔曼滤波法,将追踪信息中的所述第一追踪轨迹更新为第二追踪轨迹。
4.如权利要求1-3任一项所述的方法,其特征在于,所述获取丢失目标的第一信息之前,还包括:
基于所述第一图像中第一目标的第一状态信息,利用卡尔曼滤波法,预测所述第一目标在中间图像中的中间状态信息;其中,所述中间图像的拍摄时间位于所述第一图像和所述第二图像的拍摄时间之间,所述第一状态信息包括所述第一目标在所述第一图像中的位置和速度;
若基于所述中间状态信息,确定所述中间图像不包括对应于所述第一目标的可能第一目标,则确定所述第一目标为可能丢失目标;
基于所述第一状态信息,利用卡尔曼滤波法,预测所述可能丢失目标在所述第二图像中的第二状态信息;
若基于所述第二状态信息,确定所述第二图像不包括对应于所述可能丢失目标的可能第一目标,则确定所述可能丢失目标为丢失目标;
确定所述丢失目标的所述预设关键点的第一坐标,以及所述丢失目标的所述第一视觉特征;
建立所述第一坐标和所述第一视觉特征与所述丢失目标之间的对应关系。
5.如权利要求4所述的方法,其特征在于,所述若基于所述中间状态信息,确定所述中间图像不包括对应于所述可能丢失目标的可能第一目标,则确定所述可能第一目标为可能丢失目标,包括:
基于所述中间状态信息,在所述中间图像中确定所述可能第一目标的数量大于1;
基于匈牙利算法,将所述可能第一目标与第一目标进行匹配,得到匹配目标对;
确定不属于所述匹配目标对的第一目标为可能丢失目标。
6.一种跟踪目标的装置,其特征在于,包括:
坐标单元:用于获取丢失目标的第一坐标;其中,所述丢失目标为在第一图像中出现,且在第二图像中未出现的目标;所述第一图像的拍摄时间先于所述第二图像,且所述第一图像和所述第二图像的拍摄时间间隔大于第一设定阈值;所述第一坐标指示,所述丢失目标的预设关键点在预设坐标系中的位置;
阈值单元:用于基于当前图像当前目标的当前信息,确定所述第一坐标与所述当前坐标之间的第一距离是否小于距离阈值;其中,所述当前信息包括所述当前目标的当前视觉特征和所述预设关键的当前坐标;
相似单元:用于若是,则获取所述丢失目标的第一视觉特征,并确定所述第一视觉特征和所述当前视觉特征之间的相似度;
丢失单元:用于确定所述相似度大于相似度阈值,则所述当前目标为所述丢失目标。
7.如权利要求6所述的装置,其特征在于,所述装置还包括匹配单元,所述匹配单元具体用若否,确定所述当前目标与第三图像中的追踪目标是否匹配;其中,所述第三图像为拍摄时间先于所述当前图像的图像,所述第三图像与所述当前图像之间的拍摄时间间隔小于第二设定阈值;若是,则确定所述当前目标为所述追踪目标;基于所述当前信息更新所述追踪目标的追踪信息;若否,则确定所述当前目标为新增目标,将所述新增目标和当前信息添加至目标跟踪列表。
8.如权利要求7所述的装置,其特征在于,所述装置还包括对应单元,所述对应单元具体用于基于所述第一图像中第一目标的第一状态信息,利用卡尔曼滤波法,预测所述第一目标在中间图像中的中间状态信息;其中,所述中间图像的拍摄时间位于所述第一目标和所述第二图像的拍摄时间,所述第一状态信息包括所述第一目标在所述第一图像中的位置和速度;若基于所述中间状态信息,确定所述中间图像不包括对应于所述第一目标的可能第一目标,则确定所述可能丢失目标为丢失目标;确定所述丢失目标的所述预设关键点的第一坐标,以及所述丢失目标的所述第一视觉特征;建立所述第一坐标和所述第一视觉特征与所述丢失目标之间的对应关系。
9.一种可读存储介质,其特征在于,包括,
存储器,
所述存储器用于存储指令,当所述指令被处理器执行时,使得包括所述可读存储介质的装置完成如权利要求1-5中任一项所述的方法。
10.一种电子设备,其特征在于,包括:
存储器,用于存放计算机程序;
处理器,用于执行所述存储器上所存放的计算机程序时,以实现如权利要求1-5中任一项所述的方法。
CN202210817438.3A 2022-07-12 2022-07-12 一种跟踪目标的方法、装置及电子设备 Pending CN115294168A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210817438.3A CN115294168A (zh) 2022-07-12 2022-07-12 一种跟踪目标的方法、装置及电子设备
PCT/CN2022/141363 WO2024011852A1 (zh) 2022-07-12 2022-12-23 一种跟踪目标的方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210817438.3A CN115294168A (zh) 2022-07-12 2022-07-12 一种跟踪目标的方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN115294168A true CN115294168A (zh) 2022-11-04

Family

ID=83822630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210817438.3A Pending CN115294168A (zh) 2022-07-12 2022-07-12 一种跟踪目标的方法、装置及电子设备

Country Status (2)

Country Link
CN (1) CN115294168A (zh)
WO (1) WO2024011852A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115994934A (zh) * 2023-03-16 2023-04-21 福思(杭州)智能科技有限公司 数据时间对齐方法、装置以及域控制器
WO2024011852A1 (zh) * 2022-07-12 2024-01-18 天翼云科技有限公司 一种跟踪目标的方法、装置及电子设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181047B2 (en) * 1996-07-26 2007-02-20 Patrick Pirim Methods and apparatus for identifying and localizing an area of relative movement in a scene
CN111429483A (zh) * 2020-03-31 2020-07-17 杭州博雅鸿图视频技术有限公司 高速跨摄像机多目标跟踪方法、系统、装置及存储介质
CN111709975B (zh) * 2020-06-22 2023-11-03 上海高德威智能交通系统有限公司 多目标跟踪方法、装置、电子设备及存储介质
CN114092519A (zh) * 2021-11-23 2022-02-25 江西理工大学 一种使用卷积神经网络和双向匹配算法的视频多目标跟踪方法
CN114187665B (zh) * 2021-12-20 2023-10-20 长讯通信服务有限公司 一种基于人体骨架热图的多人步态识别方法
CN115294168A (zh) * 2022-07-12 2022-11-04 天翼云科技有限公司 一种跟踪目标的方法、装置及电子设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024011852A1 (zh) * 2022-07-12 2024-01-18 天翼云科技有限公司 一种跟踪目标的方法、装置及电子设备
CN115994934A (zh) * 2023-03-16 2023-04-21 福思(杭州)智能科技有限公司 数据时间对齐方法、装置以及域控制器
CN115994934B (zh) * 2023-03-16 2023-06-13 福思(杭州)智能科技有限公司 数据时间对齐方法、装置以及域控制器

Also Published As

Publication number Publication date
WO2024011852A1 (zh) 2024-01-18

Similar Documents

Publication Publication Date Title
CN110516556B (zh) 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质
CN107292949B (zh) 场景的三维重建方法、装置及终端设备
CN115294168A (zh) 一种跟踪目标的方法、装置及电子设备
CN111512317B (zh) 一种多目标实时跟踪方法、装置及电子设备
US20210056715A1 (en) Object tracking method, object tracking device, electronic device and storage medium
CN110561416B (zh) 一种激光雷达重定位方法及机器人
CN108038176B (zh) 一种路人库的建立方法、装置、电子设备及介质
CN114155284A (zh) 基于多目标行人场景的行人跟踪方法、装置、设备及介质
CN110686676A (zh) 机器人重定位方法、装置及机器人
CN110738078A (zh) 一种人脸识别方法及终端设备
CN115965657B (zh) 目标跟踪方法、电子设备、存储介质及车辆
CN115205383A (zh) 相机位姿的确定方法、装置、电子设备及存储介质
CN114219829A (zh) 车辆跟踪方法、计算机设备及存储装置
CN110751116B (zh) 一种目标识别的方法及装置
CN111767965A (zh) 图像匹配方法、装置、电子设备及存储介质
CN112633281B (zh) 一种基于Hash算法车辆身份认证方法及系统
CN114359341A (zh) 多目标跟踪方法、装置、终端设备和可读存储介质
CN113139416A (zh) 目标关联方法、计算机设备和存储介质
CN112418089A (zh) 一种手势识别方法、装置及终端
CN112416128B (zh) 一种手势识别方法及终端设备
CN110706257A (zh) 有效特征点对的识别方法、相机状态的确定方法及装置
CN111275693B (zh) 一种图像中物体的计数方法、计数装置及可读存储介质
CN109213322B (zh) 一种虚拟现实中手势识别的方法及系统
CN111951211B (zh) 一种目标检测方法、装置及计算机可读存储介质
CN111639640A (zh) 基于人工智能的车牌识别方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination