CN112489086A - 目标跟踪方法、目标跟踪装置、电子设备及存储介质 - Google Patents

目标跟踪方法、目标跟踪装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112489086A
CN112489086A CN202011460436.0A CN202011460436A CN112489086A CN 112489086 A CN112489086 A CN 112489086A CN 202011460436 A CN202011460436 A CN 202011460436A CN 112489086 A CN112489086 A CN 112489086A
Authority
CN
China
Prior art keywords
target
tracked
frame image
tracking
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011460436.0A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhao Hua
Original Assignee
Beijing Pengsi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Pengsi Technology Co ltd filed Critical Beijing Pengsi Technology Co ltd
Priority to CN202011460436.0A priority Critical patent/CN112489086A/zh
Publication of CN112489086A publication Critical patent/CN112489086A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本公开是关于一种目标跟踪方法、目标跟踪装置、电子设备及存储介质。该目标跟踪方法包括确定待跟踪目标在第n‑1帧图像中是否被遮挡,n为大于1的正整数;若所述待跟踪目标的局部区域在所述第n‑1帧图像中被遮挡,确定在所述第n‑1帧图像中所述目标未被遮挡的区域;基于第n‑1帧图像中所述目标跟踪的跟踪信息,在第n帧图像中对所述未被遮挡的区域进行局部跟踪,得到所述待跟踪目标在第n帧图像的局部跟踪信息,其中,所述第n‑1帧图像为所述第n帧图像的前一帧图像。如此在待跟踪目标被局部遮挡的情况下,通过对未遮挡的区域进行局部跟踪,来得到待跟踪目标的跟踪信息,从而可减少当待跟踪目标被局部遮挡时造成目标丢失的情况。

Description

目标跟踪方法、目标跟踪装置、电子设备及存储介质
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种目标跟踪方法、目标跟踪装置、电子设备及存储介质。
背景技术
目标跟踪问题是计算机视觉领域的重要研究方向。目标跟踪问题根据待跟踪目标数量可分为单目标跟踪和多目标跟踪。根据跟踪过程中的复杂程度,可分为短时间目标跟踪和长时间目标跟踪等。目前目标跟踪问题的研究已经取得诸多进展和突破,但依然存在诸多难题有待解决。例如,长时间目标跟踪过程中,容易出现目标跟踪丢失的现象。
发明内容
有鉴于此,本公开实施例期望提供一种目标跟踪方法、目标跟踪装置、电子设备及存储介质。
本公开的技术方案是这样实现的:
一方面,本公开提供一种目标跟踪方法。
本公开实施例提供的目标跟踪方法,包括:
确定待跟踪目标在第n-1帧图像中是否被遮挡,其中,n为大于1的正整数;
若所述待跟踪目标的局部区域在所述第n-1帧图像中被遮挡,确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域;
基于第n-1帧图像中对所述待跟踪目标的跟踪信息,在第n帧图像中对所述未被遮挡的区域进行局部跟踪,得到所述待跟踪目标在所述第n帧图像中的局部跟踪信息,其中,所述第n-1帧图像为所述第n帧图像的前一帧图像。
在一些实施例中,所述确定待跟踪目标在第n-1帧图像中是否被遮挡,包括:
确定在所述第n-1帧图像中不同目标之间的透视关系;其中,所述目标至少包含所述待跟踪目标;
根据所述透视关系,确定所述待跟踪目标的前景目标;
确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物。
在一些实施例中,所述确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物,包括:
确定所述前景目标的位置是否与所述待跟踪目标的位置重叠;
若是,则确定所述待跟踪目标在所述第n-1帧图像中被所述干扰物遮挡。
在一些实施例中,所述确定在所述第n-1帧图像中不同目标之间的透视关系,以及所述根据所述透视关系,确定所述待跟踪目标的前景目标,包括:
确定所述不同目标的外接框;
确定所述待跟踪目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第一距离,并确定所述待跟踪目标以外的目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第二距离;
若所述第一距离大于所述第二距离,则确定所述第二距离对应的目标为所述待跟踪目标的前景目标。
在一些实施例中,所述确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域,包括:
获取所述干扰物的外接框与所述待跟踪目标的外接框之间的交集,得到所述待跟踪目标被遮挡的区域;
从所述待跟踪目标中去除被遮挡的区域,得到所述待跟踪目标在所述第n-1帧图像中未被遮挡的区域。
在一些实施例中,所述方法还包括:
根据所述未被遮挡的区域的位置信息及所述待跟踪目标的外接框的位置信息,确定出所述未被遮挡的区域在所述待跟踪目标中的相对位置关系;
根据所述相对位置关系,将所述第n帧图像的局部跟踪信息转换为所述待跟踪目标在所述第n帧图像中的全局跟踪信息。
在一些实施例中,所述方法还包括:
若检测到第m帧图像中所述待跟踪目标无遮挡,从所述第m帧图像起恢复对所述待跟踪目标的全局跟踪,其中,所述m为大于或等于n的正整数。
另一方面,本公开提供一种目标跟踪装置。本公开实施例提供的目标跟踪装置,包括:
第一处理单元,用于确定待跟踪目标在第n-1帧图像中是否被遮挡,其中,n为大于1的正整数;
第二处理单元,用于若所述待跟踪目标的局部区域在所述第n-1帧图像中被遮挡,确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域;
第三处理单元,用于基于第n-1帧图像中对所述待跟踪目标的跟踪信息,在第n帧图像中对所述未被遮挡的区域进行局部跟踪,得到所述待跟踪目标在所述第n帧图像中的局部跟踪信息,其中,所述第n-1帧图像为所述第n帧图像的前一帧图像。
在一些实施例中,所述第一处理单元,用于确定待跟踪目标在第n-1帧图像中是否被遮挡,包括:
所述第一处理单元,具体用于确定在所述第n-1帧图像中不同目标之间的透视关系;其中,所述目标至少包含所述待跟踪目标;
根据所述透视关系,确定所述待跟踪目标的前景目标;
确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物。
在一些实施例中,所述第一处理单元,用于确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物,包括:
所述第一处理单元,具体用于确定所述前景目标的位置是否与所述待跟踪目标的位置重叠;
若是,则确定所述待跟踪目标在所述第n-1帧图像中被所述干扰物遮挡。
在一些实施例中,所述第一处理单元,用于确定在所述第n-1帧图像中不同目标之间的透视关系,以及所述根据所述透视关系,确定所述待跟踪目标的前景目标,包括:
所述第一处理单元,具体用于确定所述不同目标的外接框;
确定所述待跟踪目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第一距离,并确定所述待跟踪目标以外的目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第二距离;以及
若所述第一距离大于所述第二距离,则确定所述第二距离对应的目标为所述待跟踪目标的前景目标。
在一些实施例中,所述第二处理单元,用于确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域,包括:
所述第二处理单元,具体用于获取所述干扰物的外接框与所述待跟踪目标的外接框之间的交集,得到所述待跟踪目标被遮挡的区域;
从所述待跟踪目标中去除被遮挡的区域,得到所述待跟踪目标在所述第n-1帧图像中未被遮挡的区域。
在一些实施例中,还包括第四处理单元,用于根据所述未被遮挡的区域的位置信息及所述待跟踪目标的外接框的位置信息,确定出所述未被遮挡的区域在所述待跟踪目标中的相对位置关系;
根据所述相对位置关系,将所述第n帧图像的局部跟踪信息转换为所述待跟踪目标在所述第n帧图像中的全局跟踪信息。
在一些实施例中,所述第三处理单元,还用于若检测到第m帧图像中所述待跟踪目标无遮挡,从所述第m帧图像起恢复对所述待跟踪目标的全局跟踪,其中,所述m为大于或等于n的正整数。
又一方面,本公开还提供一种电子设备。
本公开实施例提供的电子设备,包括:处理器和用于存储能够在处理器上运行的计算机程序的存储器,其中,所述处理器用于运行所述计算机程序时,执行一方面本公开实施例提供的目标跟踪方法的步骤。
再一方面,本公开还提供一种计算机可读存储介质。
本公开实施例提供的计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现一方面本公开实施例提供的目标跟踪方法的步骤。
本公开实施例通过确定待跟踪目标未被遮挡的区域作为被跟踪的对象,通过上一帧图像(例如,第n-1帧图像)中目标跟踪的跟踪信息,对未被遮挡的区域进行局部跟踪,得到目标在下一帧图像(例如,第n帧图像)的局部跟踪信息,如此在待跟踪目标被局部遮挡的情况下,通过对未遮挡的区域进行局部跟踪,来得到目标的跟踪信息。在上述待跟踪目标被局部遮挡的情况下,如果继续对待跟踪目标进行整体跟踪,会由于局部区域被遮挡造成无法对待跟踪目标进行整体识别,从而使得跟踪结果判断为在下一帧图像中不存在目标,进而造成目标丢失。但在本公开实施例中,通过对未遮挡的局部区域进行局部跟踪,可减少待跟踪目标被局部遮挡时目标丢失的情况。
附图说明
图1是待跟踪目标丢失过程示意图;
图2是待跟踪目标被遮挡的可能情况示意图;
图3是根据一示例性实施例示出的目标跟踪方法流程图;
图4是根据一示例性实施例示出的遮挡关系判断示意图;
图5是根据一示例性实施例示出的目标跟踪学习示意图;
图6是根据一示例性实施例示出的目标跟踪方法整体流程图;
图7是根据一示例性实施例示出的目标跟踪装置结构示意图;
图8是根据一示例性实施例示出的电子设备结构示意图。
具体实施方式
以下结合说明书附图及具体实施例对本发明的技术方案做进一步的详细阐述。这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
在计算机视觉领域,对目标进行跟踪时,会出现待跟踪目标被遮挡的情况,进而造成待跟踪目标丢失。图1是待跟踪目标丢失过程示意图。如图1所示,包括初始状态、遮挡状态和跟踪失败状态。初始状态中跟踪装置可以跟踪到待跟踪目标,此时待跟踪目标没有被遮挡。遮挡状态中跟踪装置发现待跟踪目标被遮挡,然后待跟踪目标丢失,待跟踪目标的目标框(外接框)留在前景目标上,导致跟踪失败。图2是待跟踪目标被遮挡的可能情况示意图。如图2所示,待跟踪目标可能被人体遮挡,可能被固定障碍物遮挡,也可能被车辆遮挡等。
本公开提供一种目标跟踪方法。图3是根据一示例性实施例示出的目标跟踪方法流程图。如图3所示,该目标跟踪方法,包括:
步骤30、确定待跟踪目标在第n-1帧图像中是否被遮挡,其中,n为大于1的正整数;
步骤31、若所述待跟踪目标的局部区域在所述第n-1帧图像中被遮挡,确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域;
步骤32、基于第n-1帧图像中对所述待跟踪目标的跟踪信息,在第n帧图像中对所述未被遮挡的区域进行局部跟踪,得到所述待跟踪目标在所述第n帧图像中的局部跟踪信息,其中,所述第n-1帧图像为所述第n帧图像的前一帧图像。
在本示例性实施例中,待跟踪目标可以是人体、动物或车辆等可以移动的目标。具体待跟踪目标并不局限于任一种。其中,确定待跟踪目标在第n-1帧图像中是否被遮挡,包括:确定在第n-1帧图像中待跟踪目标的成像区域是否被其他目标的成像遮挡。成像是指反映待跟踪目标形态特征、外形轮廓等体现用于识别的个体特征的图像信息。第n帧图像为第n-1帧图像的后一帧图像。第n帧图像和第n-1帧图像可为视频中相邻的两个图像。
所述第n帧图像和所述第n-1帧图像可为来自同一个视频,而该视频可为来自道路监控设备和/或安防监控设备等。当然此处仅是对视频的来自设备进行举例说明,具体实现时不局限于这些举例的道路监控设备和/或安防监控设备。该安防监控设备包括但不限于:小区内监控摄像头、写字楼的监控摄像头、商场的监控设备和/或公园等非道路的公共场所监控设备。
在本示例性实施例中,全局跟踪为跟踪装置根据目标的整体特征(即,把待跟踪目标作为一个整体)进行识别、定位。例如,待跟踪目标是一个人的时候,则把这个人的全部特征(包括头部、四肢、躯体等)看出一个整体进行识别、定位。局部跟踪为跟踪装置根据待跟踪目标的部分特征对目标进行识别、定位。例如,待跟踪目标是一个人的时候,则可仅对这个人的头部进行识别、定位,从而判断目标的位置。
在本示例性实施例中,局部跟踪信息可以是基于目标局部特征跟踪获得的被跟踪的局部特征在图像中的位置信息(包括坐标信息)和/或局部特征的区域信息(包括由局部特征构成的形态轮廓、面积等)。
全局跟踪信息可以是基于目标整体特征跟踪获得的目标整体在图像中的位置信息(包括坐标信息)和/或目标整体的区域信息(包括由整体特征构成的形态轮廓、面积等)。
在本示例性实施例中,第n-1帧图像中用于跟踪目标的未遮挡区域,在第n帧图像中也没有被障碍遮挡;若第n-1帧图像中用于跟踪目标的未遮挡区域在第n帧图像中被障碍遮挡,则可以更换一个未遮挡区域,继续对待跟踪目标进行跟踪。
本公开实施例通过确定待跟踪目标未被遮挡的区域作为被跟踪的对象,通过上一帧图像(例如,第n-1帧图像)中目标跟踪的跟踪信息,对未被遮挡的区域进行局部跟踪,得到目标在下一帧图像(例如,第n帧图像)的局部跟踪信息。如此在目标被局部遮挡的情况下,通过对未遮挡的区域进行局部跟踪,来得到目标的跟踪信息。在上述目标被局部遮挡的情况下,如果继续对目标进行整体跟踪,会由于局部区域被遮挡造成无法对目标进行整体识别,从而使得跟踪结果判断为在下一帧图像中不存在目标,进而造成目标丢失。但在本公开实施例中,通过对未遮挡的局部区域进行局部跟踪,可减少目标被局部遮挡时目标丢失的情况。
在一个实施例中,所述方法还包括:
确定未被遮挡的区域是否满足预设条件,若未被遮挡的区域满足预设条件,则基于未被遮挡的区域进行局部跟踪。
在本示例性实施例中,预设条件可以是具有明显特征,或特定特征。例如未被遮挡的局部区域满足预设颜色要求、预设轮廓要求,或是满足预设肢体特征跟踪要求等(例如,手臂、头部等)。
在一个实施例中,所述方法还包括:
若未被遮挡的区域不满足预设条件,则根据待跟踪目标的图像特征检查第n+k帧图像,定位所述待跟踪目标在第n+k帧图像中的位置,得到待跟踪目标在第n+k帧图像中的跟踪结果。其中,k为0或正整数。
在本示例性实施例中,当未被遮挡的区域不满足预设条件时,根据待跟踪目标的图像特征检查第n+k帧图像,定位所述待跟踪目标在第n+k帧图像中的位置,得到待跟踪目标在第n+k帧图像中的跟踪结果,可使得在当前图像中一时无法进行局部跟踪时,可及时在后续的图像中进行识别跟踪,以减少目标丢失情况。
所述未被遮挡区域满足预设条件,包括:
未被遮挡区域与整个目标的面积比值达到预设阈值;
未被遮挡区域为所述目标内的预设局部区域,该预设局部区域包括但不限于:所述目标的头部。
在本示例性实施例中,通过预设阈值的判断筛选,可尽可能利用跟踪成功率较大局部区域进行跟踪,从而提高目标跟踪成功率。
在一些实施例中,所述确定待跟踪目标在第n-1帧图像中是否被遮挡,包括:
确定在所述第n-1帧图像中不同目标之间的透视关系;其中,所述目标至少包含所述待跟踪目标;
根据所述透视关系,确定所述待跟踪目标的前景目标;
确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物。
在本示例性实施例中,可通过摄像机、雷达检测等方式获取目标跟踪的各个图像。通过对图像中各个目标的透视关系分析,确认待跟踪目标是否被干扰物遮挡。干扰物为图像中除待跟踪目标外的目标,包括:被跟踪人以外的人、移动的车辆、固定装置(包括栅栏等)等。
在本示例性实施例中,透视关系指在视野范围内显示各个目标的空间位置、轮廓和投影,包括近大远小、近高远低、近疏远密、近宽远窄等相对关系。在本示例性实施例中,可通过跟踪装置(例如,摄像装置等)摄像、拍照来捕捉视野范围内各个目标的空间位置、轮廓等信息。
在一些实施例中,所述确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物,包括:
确定所述前景目标的位置是否与所述待跟踪目标的位置重叠;
若是,则确定所述待跟踪目标在所述第n-1帧图像中被所述干扰物遮挡。
在本示例性实施例中,前景目标指的是以跟踪装置为标准,距离跟踪装置比待跟踪目标距离跟踪装置近的目标。前景目标为干扰物中的一个或多个。即任意干扰物都可能成为前景目标。
在本示例性实施例中,当前景目标的位置与所述待跟踪目标的位置重叠,则前景目标位置的干扰物便阻挡了跟踪装置获取待跟踪目标信息的视野。此时待跟踪目标在第n-1帧图像中被该干扰物遮挡。
在一些实施例中,所述确定在所述第n-1帧图像中不同目标之间的透视关系,以及所述根据所述透视关系,确定所述待跟踪目标的前景目标,包括:
确定所述不同目标的外接框;
确定所述待跟踪目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第一距离,并确定所述待跟踪目标以外的目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第二距离;
若所述第一距离大于所述第二距离,则确定所述第二距离对应的目标为所述待跟踪目标的前景目标。
在本示例性实施例中,图4是根据一示例性实施例示出的遮挡关系判断示意图。如图4所示,在获取的帧图像中,当第一距离大于第二距离时,说明干扰物与跟踪装置的距离小于待跟踪目标(图示中的被遮挡目标)与跟踪装置的距离。此时,该干扰物便是待跟踪目标的前景目标。同时该前景目标的位置与待跟踪目标的位置发送重叠,则该干扰物遮挡了待跟踪目标。在本示例性实施例中,外接框为跟踪装置捕捉目标时,根据跟踪的特征(全局特征或局部特征)圈定的特征捕捉框。外接框可以是矩形、圆形等任意形状。
在一些实施例中,所述确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域,包括:
获取所述干扰物的外接框与所述待跟踪目标的外接框之间的交集,得到所述待跟踪目标被遮挡的区域;
从所述待跟踪目标中去除被遮挡的区域,得到所述待跟踪目标在所述第n-1帧图像中未被遮挡的区域。
在本示例性实施例中,在对目标进行跟踪时,可对目标特征进行圈定进行跟踪的外接框。该外接框可以是矩形、圆形或其他设定的形状。该外接框根据需要可以圈定整个跟踪目标以及圈定各个干扰物的整体特征。同时,该外接框也可以圈定跟踪目标或干扰物的局部特征。
在一些实施例中,所述方法还包括:
根据所述未被遮挡的区域的位置信息及所述待跟踪目标的外接框的位置信息,确定出所述未被遮挡的区域在所述待跟踪目标中的相对位置关系;
根据所述相对位置关系,将所述第n帧图像的局部跟踪信息转换为所述待跟踪目标在所述第n帧图像中的全局跟踪信息。
在本示例性实施例中,获取待跟踪目标在第n帧图像中的局部跟踪信息后,根据在第n-1帧图像中未被遮挡局部在所述待跟踪目标中的相对位置关系,确定待跟踪目标在第n帧图像中的全局跟踪信息。相对位置关系可包括相对位置坐标。
例如,待跟踪目标在第n帧图像中的局部跟踪信息,包括待跟踪目标的局部特征在第n帧图像中的位置坐标(例如,确定圈定局部特征的外接框的左上角在第n帧图像中的位置坐标:X’、Y’;其中X’为圈定局部特征的外接框的左上角在第n帧图像中的X轴方向的坐标,其中Y’为圈定局部特征的外接框的左上角在第n帧图像中的Y轴方向的坐标);
确定圈定待跟踪目标整体特征的外接框的左上角在第n-1帧图像中的位置坐标:X、Y;其中,X为圈定待跟踪目标整体特征的外接框的左上角在第n-1帧图像中的X轴方向的坐标,Y为圈定待跟踪目标整体特征的外接框的左上角在第n-1帧图像中的Y轴方向的坐标;
确定圈定局部特征的外接框的左上角在第n-1帧图像中的位置坐标:X、Y;其中,X为圈定局部区域特征的外接框的左上角在第n-1帧图像中的X轴方向的坐标,Y为圈定局部区域特征的外接框的左上角在第n-1帧图像中的Y轴方向的坐标;
确定在第n-1帧图像中未被遮挡局部区域在所述目标中的相对位置关系:X=X-X,Y=Y-Y;其中,X为第n-1帧图像中圈定待跟踪目标整体特征的外接框的左上角与圈定局部区域特征的外接框的左上角在X轴方向的坐标差,Y为第n-1帧图像中圈定待跟踪目标整体特征的外接框的左上角与圈定局部区域特征的外接框的左上角在Y轴方向的坐标差;
确定待跟踪目标在第n帧图像中的全局跟踪信息X’=X’+X、Y’=Y’+Y;其中X’为圈定待跟踪目标整体特征的外接框的左上角在第n帧图像中的X轴方向的坐标,Y’为圈定待跟踪目标整体特征的外接框的左上角在第n帧图像中的Y轴方向的坐标。
确定圈定待跟踪目标整体特征的外接框在第n-1帧图像中的宽W和高H,同时圈定待跟踪目标整体特征的外接框在第n帧图像中的宽W’整和高H’整与在第n-1帧图像中的宽W整和高H整分别相同。
在本示例性实施例中,还可以使用雷达、双目视觉等方法确定目标之间或者目标与环境之间的遮挡关系。结合背景建模、光流等算法,更为精确的确定未被遮挡的目标区域。跟踪算法变更使用其他特征模型、深度学习等。
在一些实施例中,
所述方法还包括:若检测到第m帧图像中所述待跟踪目标无遮挡,从所述第m帧图像起恢复对所述待跟踪目标的全局跟踪,其中,所述m为大于或等于n的正整数。
在本示例性实施例中,当对待跟踪目标进行的局部跟踪结束,目标无遮挡后,可转换为全局跟踪。
在本示例性实施例中,还包括待跟踪目标未被遮挡的局部区域被遮挡时,可切换到其他的未被遮挡的局部区域继续跟踪。当所有未被遮挡的局部区域全部被遮挡时,则转换为对目标的全局进行跟踪。
图5是根据一示例性实施例示出的目标跟踪学习示意图。如图5所示,对目标进行跟踪的跟踪学习区域权重包括全身和上身两种。原始跟踪以跟踪学习目标整体特征,核心学习区域在目标的中心位置,即中心位置获得的特征学习权重最高,边缘位置学习权重最弱。当跟踪学习区域权重为目标全身时,跟踪核心区域被遮挡,跟踪目标容易丢失。当跟踪学习区域权重为目标上半身时,由于跟踪目标一般下半身被遮挡的几率较大,因此跟踪核心区域不易被遮挡,跟踪目标不会容易丢失。如果进行人体的整体跟踪,则学习权重核心区域在腰腹部,下半身由于双腿交替运动,低矮目标的遮挡等情况会使得双腿区域容易被遮挡、且变化较大对跟踪情况不利。所以使用上半身进行跟踪,将学习权重核心区域移动到胸膛部分,则更容易稳定跟踪。即可以改善双腿的快速变化不利于跟踪,又可以解决一些常见目标的遮挡,比如栅栏、非机动车、低矮轿车等。
图6是根据一示例性实施例示出的目标跟踪方法整体流程图。如图6所示,目标跟踪方法包括:
视频帧解析:获取第n-1帧图像(检测帧图像)和第n帧图像(跟踪帧图像)。
检测帧图像分析:在第n-1帧图像中,获取待跟踪目标的外接框位置(例如,外接框左上角的坐标),并判断遮挡关系;选择进行局部跟踪的局部区域(获取局部区域的外接框的左上角坐标);目标跟踪模型学习对局部区域进行跟踪。
跟踪帧图像分析:根据局部区域模型跟踪局部区域新位置;根据局部区域的新位置以及在检测帧图像中局部区域与全局的位置和缩放关系,获得全局位置。
帧图像处理完成,则结束任务,否则继续视频帧解析。
其中,上述方法中所用的各模型可以为本领域常用或已有的各常规模型,如目标追踪模型、局部区域模型均可以分别为本领域现有的各种目标追踪模型、局部区域模型,相关模型的更新也为现有的更新方法,在此均不作具体赘述。
本公开利用图像透视关系判断目标的遮挡关系,确认待跟踪目标被遮挡。选择待跟踪目标未被遮挡的局部区域进行跟踪,而后通过局部区域与整体的位置比例关系,换算为整体目标的运动跟踪结果。保证待跟踪目标不因部分遮挡影响跟踪结果。
另一方面,本公开提供一种目标跟踪装置。图7是根据一示例性实施例示出的目标跟踪装置结构示意图。如图7所示,本公开实施例提供的目标跟踪装置,包括:
第一处理单元71,用于确定待跟踪目标在第n-1帧图像中是否被遮挡,其中,n为大于1的正整数;
第二处理单元72,用于若所述待跟踪目标的局部区域在所述第n-1帧图像中被遮挡,确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域;
第三处理单元73,用于基于第n-1帧图像中对所述待跟踪目标的跟踪信息,在第n帧图像中对所述未被遮挡的区域进行局部跟踪,得到所述待跟踪目标在所述第n帧图像中的局部跟踪信息,其中,所述第n-1帧图像为所述第n帧图像的前一帧图像。
在本示例性实施例中,待跟踪目标可以是人体、动物或车辆等可以移动的目标。具体待跟踪目标并不局限于任一种。
第n帧图像为第n-1帧图像的后一帧图像。第n帧图像和第n-1帧图像可为视频中相邻的两个图像。
所述第n帧图像和所述第n-1帧图像可为来自同一个视频,而该视频可为来自道路监控设备和/或安防监控设备等。在本示例性实施例中,此处仅是对视频的来自设备进行举例说明,具体实现时不局限于这些举例的道路监控设备和/或安防监控设备。该安防监控设备包括但不限于:小区内监控摄像头、写字楼的监控摄像头、商场的监控设备和/或公园等非道路的公共场所监控设备。
在本示例性实施例中,全局跟踪为跟踪装置根据目标的整体特征(即,把待跟踪目标作为一个整体)进行识别、定位。例如,待跟踪目标是一个人的时候,则把这个人的全部特征(包括头部、四肢、躯体等)看出一个整体进行识别、定位。局部跟踪为跟踪装置根据目标的部分特征对目标进行识别、定位。例如,待跟踪目标是一个人的时候,则可仅对这个人的头部进行识别、定位,从而判断目标的位置。
在本示例性实施例中,局部跟踪信息可以是基于目标局部特征跟踪获得的被跟踪的局部特征在图像中的位置信息(包括坐标信息)和/或局部特征的区域信息(包括由局部特征构成的形态轮廓、面积等)。
全局跟踪信息可以是基于目标整体特征跟踪获得的目标整体在图像中的位置信息(包括坐标信息)和/或目标整体的区域信息(包括由整体特征构成的形态轮廓、面积等)。
本公开实施例通过确定待跟踪目标未被遮挡的局部作为被跟踪的对象,通过上一帧图像(例如,第n-1帧图像)中目标跟踪的跟踪信息,对未被遮挡的区域进行局部跟踪,得到待跟踪目标在下一帧图像(例如,第n帧图像)的局部跟踪信息,如此在目标被局部遮挡的情况下,通过对未遮挡的区域进行局部跟踪,来得到目标的跟踪信息。在上述目标被局部遮挡的情况下,如果继续对目标进行整体跟踪,会由于局部被遮挡造成无法对目标进行整体识别,从而使得跟踪结果判断为在下一帧图像中不存在目标,进而造成目标丢失。但在本公开实施例中,通过对未遮挡的区域进行局部跟踪,可减少目标被局部遮挡时目标丢失的情况。
在一些实施例中,所述第一处理单元,用于确定待跟踪目标在第n-1帧图像中是否被遮挡,包括:
所述第一处理单元,具体用于确定在所述第n-1帧图像中不同目标之间的透视关系;其中,所述目标至少包含所述待跟踪目标;
根据所述透视关系,确定所述待跟踪目标的前景目标;
确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物。
在本示例性实施例中,可通过摄像机、雷达检测等方式获取目标跟踪的各个图像。通过对图像中各个目标的透视关系分析,确认跟踪目标是否被干扰物遮挡。干扰物为图像中除所述跟踪目标外的目标,包括:被跟踪人以外的人、移动的车辆、固定装置(包括栅栏等)等。
在本示例性实施例中,透视关系指在视野范围内显示各个目标的空间位置、轮廓和投影,包括近大远小、近高远低、近疏远密、近宽远窄等相对关系。在本示例性实施例中,可通过跟踪装置(例如,摄像装置等)摄像、拍照来捕捉视野范围内各个目标的空间位置、轮廓等信息。
在一些实施例中,所述第一处理单元,用于确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物,包括:
所述第一处理单元,具体用于确定所述前景目标的位置是否与所述待跟踪目标的位置重叠;
若是,则确定所述待跟踪目标在所述第n-1帧图像中被所述干扰物遮挡。
在本示例性实施例中,前景目标指的是以跟踪装置为标准,距离跟踪装置比待跟踪目标距离跟踪装置近的目标。前景目标为干扰物中的一个或多个。即任意干扰物都可能成为前景目标。
在本示例性实施例中,当前景目标的位置与所述待跟踪目标的位置重叠,则前景目标位置的干扰物便阻挡了跟踪装置获取待跟踪目标信息的视野。此时待跟踪目标在第n-1帧图像中被该干扰物遮挡。
在一些实施例中,所述第一处理单元,用于确定在所述第n-1帧图像中不同目标之间的透视关系,以及所述根据所述透视关系,确定所述待跟踪目标的前景目标,包括:
所述第一处理单元,具体用于确定所述不同目标的外接框;
确定所述待跟踪目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第一距离,并确定所述待跟踪目标以外的目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第二距离;以及
若所述第一距离大于所述第二距离,则确定所述第二距离对应的目标为所述待跟踪目标的前景目标。
在本示例性实施例中,图4是根据一示例性实施例示出的遮挡关系判断示意图。如图4所示,在获取的帧图像中,当第一距离大于第二距离时,说明干扰物与跟踪装置的距离小于待跟踪目标(图示中的被遮挡目标)与跟踪装置的距离。此时,该干扰物便是待跟踪目标的前景目标。同时该前景目标的位置与待跟踪目标的位置发送重叠,则该干扰物遮挡了待跟踪目标。在本示例性实施例中,外接框为跟踪装置捕捉目标时,根据跟踪的特征(全局特征或局部特征)圈定的特征捕捉框。外接框可以是矩形、圆形等任意形状。
在本示例性实施例中,外接框为跟踪装置捕捉目标时,根据跟踪的特征(全局特征或局部特征)圈定的特征捕捉框。外接框可以是矩形、圆形等任意形状。
在一些实施例中,所述第二处理单元,用于确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域,包括:
所述第二处理单元,具体用于获取所述干扰物的外接框与所述待跟踪目标的外接框之间的交集,得到所述待跟踪目标被遮挡的区域;
从所述待跟踪目标中去除被遮挡的区域,得到所述待跟踪目标在所述第n-1帧图像中未被遮挡的区域。
在本示例性实施例中,在对待跟踪目标进行跟踪时,可对待跟踪目标特征进行圈定进行跟踪的外接框。该外接框可以是矩形、圆形或其他设定的形状。该外接框根据需要可以圈定整个跟踪目标以及圈定各个干扰物的整体特征。同时,该外接框也可以圈定待跟踪目标或干扰物的局部特征。
在一些实施例中,还包括第四处理单元,用于根据所述未被遮挡的区域的位置信息及所述待跟踪目标的外接框的位置信息,确定出所述未被遮挡的区域在所述待跟踪目标中的相对位置关系;
根据所述相对位置关系,将所述第n帧图像的局部跟踪信息转换为所述待跟踪目标在所述第n帧图像中的全局跟踪信息。
在本示例性实施例中,获取待跟踪目标在第n帧图像中的局部跟踪信息后,根据在第n-1帧图像中未被遮挡局部在所述待跟踪目标中的相对位置关系,确定待跟踪目标在第n帧图像中的全局跟踪信息。相对位置关系可包括相对位置坐标。
例如,待跟踪目标在第n帧图像中的局部跟踪信息,包括待跟踪目标的局部特征在第n帧图像中的位置坐标(例如,确定圈定局部特征的外接框的左上角在第n帧图像中的位置坐标:X’、Y’;其中X’为圈定局部特征的外接框的左上角在第n帧图像中的X轴方向的坐标,其中Y’为圈定局部特征的外接框的左上角在第n帧图像中的Y轴方向的坐标);
确定圈定待跟踪目标整体特征的外接框的左上角在第n-1帧图像中的位置坐标:X、Y;其中,X为圈定待跟踪目标整体特征的外接框的左上角在第n-1帧图像中的X轴方向的坐标,Y为圈定待跟踪目标整体特征的外接框的左上角在第n-1帧图像中的Y轴方向的坐标;
确定圈定局部特征的外接框的左上角在第n-1帧图像中的位置坐标:X、Y;其中,X为圈定局部区域特征的外接框的左上角在第n-1帧图像中的X轴方向的坐标,Y为圈定局部区域特征的外接框的左上角在第n-1帧图像中的Y轴方向的坐标;
确定在第n-1帧图像中未被遮挡局部区域在所述目标中的相对位置关系:X=X-X,Y=Y-Y;其中,X为第n-1帧图像中圈定跟踪目标整体特征的外接框的左上角与圈定局部区域特征的外接框的左上角在X轴方向的坐标差,Y为第n-1帧图像中圈定跟踪目标整体特征的外接框的左上角与圈定局部区域特征的外接框的左上角在Y轴方向的坐标差;
确定跟踪目标在第n帧图像中的全局跟踪信息X’=X’+X、Y’=Y’+Y;其中X’为圈定跟踪目标整体特征的外接框的左上角在第n帧图像中的X轴方向的坐标,Y’为圈定跟踪目标整体特征的外接框的左上角在第n帧图像中的Y轴方向的坐标。
确定圈定跟踪目标整体特征的外接框在第n-1帧图像中的宽W和高H,同时圈定跟踪目标整体特征的外接框在第n帧图像中的宽W’整和高H’整与在第n-1帧图像中的宽W整和高H整分别相同。
在本示例性实施例中,还可以使用雷达、双目视觉等方法确定目标之间或者目标与环境之间的遮挡关系。结合背景建模、光流等算法,更为精确的确定未被遮挡的目标区域。跟踪算法变更使用其他特征模型、深度学习等。
在一些实施例中,所述第三处理单元,还用于若检测到第m帧图像中所述待跟踪目标无遮挡,从所述第m帧图像起恢复对所述待跟踪目标的全局跟踪,其中,所述m为大于或等于n的正整数。
在本示例性实施例中,当对待跟踪目标进行的局部区域跟踪结束,目标无遮挡后,可转换为全局区域跟踪。
在本示例性实施例中,还包括待跟踪目标未被遮挡的局部区域被遮挡时,可切换到其他的未被遮挡的局部区域继续跟踪。当所有未被遮挡的局部区域全部被遮挡时,则转换为对目标的全局区域进行跟踪。
本公开还提供一种电子设备。图8是根据一示例性实施例示出的电子设备结构示意图。如图8所示,本公开实施例提供的电子设备,包括:处理器830和用于存储能够在处理器上运行的计算机程序的存储器820,其中,所述处理器830用于运行所述计算机程序时,执行上述各实施例提供所述方法的步骤。
本公开还提供一种计算机可读存储介质。本公开实施例提供的计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各实施例提供所述方法的步骤。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
在一些情况下,上述任一两个技术特征不冲突的情况下,可以组合成新的方法技术方案。
在一些情况下,上述任一两个技术特征不冲突的情况下,可以组合成新的设备技术方案。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种目标跟踪方法,其特征在于,所述方法包括:
确定待跟踪目标在第n-1帧图像中是否被遮挡,其中,n为大于1的正整数;
若所述待跟踪目标的局部区域在所述第n-1帧图像中被遮挡,确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域;
基于第n-1帧图像中对所述待跟踪目标的跟踪信息,在第n帧图像中对所述未被遮挡的区域进行局部跟踪,得到所述待跟踪目标在所述第n帧图像中的局部跟踪信息,其中,所述第n-1帧图像为所述第n帧图像的前一帧图像。
2.根据权利要求1所述的目标跟踪方法,其特征在于,所述确定待跟踪目标在第n-1帧图像中是否被遮挡,包括:
确定在所述第n-1帧图像中不同目标之间的透视关系;其中,所述目标至少包含所述待跟踪目标;
根据所述透视关系,确定所述待跟踪目标的前景目标;
确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物。
3.根据权利要求2所述的目标跟踪方法,其特征在于,所述确定所述前景目标中是否存在遮挡所述待跟踪目标的干扰物,包括:
确定所述前景目标的位置是否与所述待跟踪目标的位置重叠;
若是,则确定所述待跟踪目标在所述第n-1帧图像中被所述干扰物遮挡。
4.根据权利要求2所述的目标跟踪方法,其特征在于,所述确定在所述第n-1帧图像中不同目标之间的透视关系,以及所述根据所述透视关系,确定所述待跟踪目标的前景目标,包括:
确定所述不同目标的外接框;
确定所述待跟踪目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第一距离,并确定所述待跟踪目标以外的目标的外接框的下边缘与所述第n-1帧图像的下边缘之间的第二距离;
若所述第一距离大于所述第二距离,则确定所述第二距离对应的目标为所述待跟踪目标的前景目标。
5.根据权利要求2所述的目标跟踪方法,其特征在于,所述确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域,包括:
获取所述干扰物的外接框与所述待跟踪目标的外接框之间的交集,得到所述待跟踪目标被遮挡的区域;
从所述待跟踪目标中去除被遮挡的区域,得到所述待跟踪目标在所述第n-1帧图像中未被遮挡的区域。
6.根据权利要求5所述的目标跟踪方法,其特征在于,所述方法还包括:
根据所述未被遮挡的区域的位置信息及所述待跟踪目标的外接框的位置信息,确定出所述未被遮挡的区域在所述待跟踪目标中的相对位置关系;
根据所述相对位置关系,将所述第n帧图像的局部跟踪信息转换为所述待跟踪目标在所述第n帧图像中的全局跟踪信息。
7.根据权利要求6所述的目标跟踪方法,其特征在于,所述方法还包括:
若检测到第m帧图像中所述待跟踪目标无遮挡,从所述第m帧图像起恢复对所述待跟踪目标的全局跟踪,其中,所述m为大于或等于n的正整数。
8.一种目标跟踪装置,其特征在于,所述装置包括:
第一处理单元,用于确定待跟踪目标在第n-1帧图像中是否被遮挡,其中,n为大于1的正整数;
第二处理单元,用于若所述待跟踪目标的局部区域在所述第n-1帧图像中被遮挡,确定在所述第n-1帧图像中所述待跟踪目标未被遮挡的区域;
第三处理单元,用于基于第n-1帧图像中对所述待跟踪目标的跟踪信息,在第n帧图像中对所述未被遮挡的区域进行局部跟踪,得到所述待跟踪目标在所述第n帧图像中的局部跟踪信息,其中,所述第n-1帧图像为所述第n帧图像的前一帧图像。
9.一种电子设备,其特征在于,包括:处理器和用于存储能够在处理器上运行的计算机程序的存储器,其中,所述处理器用于运行所述计算机程序时,执行权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至7任一项所述方法的步骤。
CN202011460436.0A 2020-12-11 2020-12-11 目标跟踪方法、目标跟踪装置、电子设备及存储介质 Pending CN112489086A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011460436.0A CN112489086A (zh) 2020-12-11 2020-12-11 目标跟踪方法、目标跟踪装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011460436.0A CN112489086A (zh) 2020-12-11 2020-12-11 目标跟踪方法、目标跟踪装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN112489086A true CN112489086A (zh) 2021-03-12

Family

ID=74916757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011460436.0A Pending CN112489086A (zh) 2020-12-11 2020-12-11 目标跟踪方法、目标跟踪装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112489086A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299115A (zh) * 2021-12-28 2022-04-08 天翼云科技有限公司 用于多目标跟踪的方法及装置、存储介质及电子设备
CN114463378A (zh) * 2021-12-27 2022-05-10 浙江大华技术股份有限公司 目标跟踪方法、电子设备及存储介质
CN115439509A (zh) * 2022-11-07 2022-12-06 成都泰盟软件有限公司 一种多目标跟踪方法、装置、计算机设备及存储介质

Citations (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101329767A (zh) * 2008-07-11 2008-12-24 西安交通大学 基于学习的视频中显著物体序列自动检测方法
CN102129695A (zh) * 2010-01-19 2011-07-20 中国科学院自动化研究所 基于遮挡物建模的有遮挡情况下的目标跟踪方法
CN103065331A (zh) * 2013-01-15 2013-04-24 南京工程学院 基于空时域边缘和颜色特征关联的目标跟踪方法
CN103927764A (zh) * 2014-04-29 2014-07-16 重庆大学 一种结合目标信息和运动估计的车辆跟踪方法
CN104091348A (zh) * 2014-05-19 2014-10-08 南京工程学院 融合显著特征和分块模板的多目标跟踪方法
CN105260735A (zh) * 2015-10-10 2016-01-20 安徽清新互联信息科技有限公司 一种基于典型位置的车牌字符分割方法
CN105632186A (zh) * 2016-03-11 2016-06-01 博康智能信息技术有限公司 检测车辆加塞行为的方法和装置
WO2017133605A1 (zh) * 2016-02-03 2017-08-10 歌尔股份有限公司 一种人脸跟踪方法、装置和智能终端
CN107240120A (zh) * 2017-04-18 2017-10-10 上海体育学院 视频中运动目标的跟踪方法及装置
CN107358621A (zh) * 2016-05-10 2017-11-17 腾讯科技(深圳)有限公司 对象跟踪方法及装置
WO2018095082A1 (zh) * 2016-11-28 2018-05-31 江苏东大金智信息系统有限公司 一种视频监测中运动目标的快速检测方法
WO2018121286A1 (zh) * 2016-12-30 2018-07-05 纳恩博(北京)科技有限公司 目标跟踪方法和装置
CN108764186A (zh) * 2018-06-01 2018-11-06 合肥工业大学 基于旋转深度学习的人物遮挡轮廓检测方法
CN108932728A (zh) * 2018-06-20 2018-12-04 南京航空航天大学 基于视觉监控的跟踪方法
CN109299735A (zh) * 2018-09-14 2019-02-01 上海交通大学 基于相关滤波的抗遮挡目标跟踪方法
CN109697385A (zh) * 2017-10-20 2019-04-30 中移(苏州)软件技术有限公司 一种目标跟踪方法及装置
CN109859489A (zh) * 2019-01-30 2019-06-07 驭势科技(北京)有限公司 一种车距估计方法、装置、车载设备及存储介质
CN109886994A (zh) * 2019-01-11 2019-06-14 上海交通大学 视频跟踪中自适应遮挡检测系统及方法
CN110136171A (zh) * 2019-05-20 2019-08-16 哈尔滨工程大学 一种目标跟踪过程中判断遮挡的方法
CN110223301A (zh) * 2019-03-01 2019-09-10 华为技术有限公司 一种图像裁剪方法和电子设备
WO2020001395A1 (zh) * 2018-06-29 2020-01-02 大连民族大学 道路行人分类方法及二维世界坐标系的俯视行人风险量化方法
CN110659566A (zh) * 2019-08-15 2020-01-07 重庆特斯联智慧科技股份有限公司 一种遮挡状态下的目标跟踪方法及系统
CN110852252A (zh) * 2019-11-07 2020-02-28 厦门市美亚柏科信息股份有限公司 一种基于最小距离、最大长宽比的车辆排重方法和装置
CN111127513A (zh) * 2019-12-02 2020-05-08 北京交通大学 一种多目标跟踪方法
WO2020098076A1 (zh) * 2018-11-12 2020-05-22 平安科技(深圳)有限公司 跟踪目标的定位方法、装置、设备及存储介质
WO2020133170A1 (zh) * 2018-12-28 2020-07-02 深圳市大疆创新科技有限公司 图像处理方法和装置
WO2020215552A1 (zh) * 2019-04-26 2020-10-29 平安科技(深圳)有限公司 多目标跟踪方法、装置、计算机设备及存储介质
CN112017203A (zh) * 2019-05-31 2020-12-01 广州市百果园信息技术有限公司 图像处理方法、视频处理方法、装置、设备及存储介质

Patent Citations (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101329767A (zh) * 2008-07-11 2008-12-24 西安交通大学 基于学习的视频中显著物体序列自动检测方法
CN102129695A (zh) * 2010-01-19 2011-07-20 中国科学院自动化研究所 基于遮挡物建模的有遮挡情况下的目标跟踪方法
CN103065331A (zh) * 2013-01-15 2013-04-24 南京工程学院 基于空时域边缘和颜色特征关联的目标跟踪方法
CN103927764A (zh) * 2014-04-29 2014-07-16 重庆大学 一种结合目标信息和运动估计的车辆跟踪方法
CN104091348A (zh) * 2014-05-19 2014-10-08 南京工程学院 融合显著特征和分块模板的多目标跟踪方法
CN105260735A (zh) * 2015-10-10 2016-01-20 安徽清新互联信息科技有限公司 一种基于典型位置的车牌字符分割方法
WO2017133605A1 (zh) * 2016-02-03 2017-08-10 歌尔股份有限公司 一种人脸跟踪方法、装置和智能终端
CN105632186A (zh) * 2016-03-11 2016-06-01 博康智能信息技术有限公司 检测车辆加塞行为的方法和装置
CN107358621A (zh) * 2016-05-10 2017-11-17 腾讯科技(深圳)有限公司 对象跟踪方法及装置
WO2018095082A1 (zh) * 2016-11-28 2018-05-31 江苏东大金智信息系统有限公司 一种视频监测中运动目标的快速检测方法
WO2018121286A1 (zh) * 2016-12-30 2018-07-05 纳恩博(北京)科技有限公司 目标跟踪方法和装置
CN107240120A (zh) * 2017-04-18 2017-10-10 上海体育学院 视频中运动目标的跟踪方法及装置
CN109697385A (zh) * 2017-10-20 2019-04-30 中移(苏州)软件技术有限公司 一种目标跟踪方法及装置
CN108764186A (zh) * 2018-06-01 2018-11-06 合肥工业大学 基于旋转深度学习的人物遮挡轮廓检测方法
CN108932728A (zh) * 2018-06-20 2018-12-04 南京航空航天大学 基于视觉监控的跟踪方法
WO2020001395A1 (zh) * 2018-06-29 2020-01-02 大连民族大学 道路行人分类方法及二维世界坐标系的俯视行人风险量化方法
CN109299735A (zh) * 2018-09-14 2019-02-01 上海交通大学 基于相关滤波的抗遮挡目标跟踪方法
WO2020098076A1 (zh) * 2018-11-12 2020-05-22 平安科技(深圳)有限公司 跟踪目标的定位方法、装置、设备及存储介质
WO2020133170A1 (zh) * 2018-12-28 2020-07-02 深圳市大疆创新科技有限公司 图像处理方法和装置
CN109886994A (zh) * 2019-01-11 2019-06-14 上海交通大学 视频跟踪中自适应遮挡检测系统及方法
CN109859489A (zh) * 2019-01-30 2019-06-07 驭势科技(北京)有限公司 一种车距估计方法、装置、车载设备及存储介质
CN110223301A (zh) * 2019-03-01 2019-09-10 华为技术有限公司 一种图像裁剪方法和电子设备
WO2020215552A1 (zh) * 2019-04-26 2020-10-29 平安科技(深圳)有限公司 多目标跟踪方法、装置、计算机设备及存储介质
CN110136171A (zh) * 2019-05-20 2019-08-16 哈尔滨工程大学 一种目标跟踪过程中判断遮挡的方法
CN112017203A (zh) * 2019-05-31 2020-12-01 广州市百果园信息技术有限公司 图像处理方法、视频处理方法、装置、设备及存储介质
CN110659566A (zh) * 2019-08-15 2020-01-07 重庆特斯联智慧科技股份有限公司 一种遮挡状态下的目标跟踪方法及系统
CN110852252A (zh) * 2019-11-07 2020-02-28 厦门市美亚柏科信息股份有限公司 一种基于最小距离、最大长宽比的车辆排重方法和装置
CN111127513A (zh) * 2019-12-02 2020-05-08 北京交通大学 一种多目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
REVERTER VALEIRAS等: ""An Asynchronous Neuromorphic Event-Driven Visual Part-Based Shape Tracking"", 《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》, vol. 26, no. 12, 31 December 2015 (2015-12-31), pages 3045 - 3059, XP011590395, DOI: 10.1109/TNNLS.2015.2401834 *
RODRIGO BENENSON: ""Occlusion Detection"", 《COMPUTER VISION》, 31 January 2016 (2016-01-31), pages 549 - 551 *
储珺等: ""基于遮挡检测和多块位置信息融合的分块目标跟踪算法"", 《模式识别与人工智能》, vol. 33, no. 1, 31 January 2020 (2020-01-31), pages 60 *
孟勃等: ""遮挡情况下目标局部特征在跟踪算法中的应用"", 《计算机工程与科学》, vol. 34, no. 4, 31 December 2012 (2012-12-31), pages 57 - 60 *
瑚琦等: ""具有旋转特性的目标跟踪算法"", 《光学学报》, vol. 40, no. 17, 30 September 2020 (2020-09-30), pages 1 - 8 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114463378A (zh) * 2021-12-27 2022-05-10 浙江大华技术股份有限公司 目标跟踪方法、电子设备及存储介质
CN114463378B (zh) * 2021-12-27 2023-02-24 浙江大华技术股份有限公司 目标跟踪方法、电子设备及存储介质
CN114299115A (zh) * 2021-12-28 2022-04-08 天翼云科技有限公司 用于多目标跟踪的方法及装置、存储介质及电子设备
CN115439509A (zh) * 2022-11-07 2022-12-06 成都泰盟软件有限公司 一种多目标跟踪方法、装置、计算机设备及存储介质
CN115439509B (zh) * 2022-11-07 2023-02-03 成都泰盟软件有限公司 一种多目标跟踪方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN112489086A (zh) 目标跟踪方法、目标跟踪装置、电子设备及存储介质
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
Gabriel et al. The state of the art in multiple object tracking under occlusion in video sequences
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
US9536147B2 (en) Optical flow tracking method and apparatus
Zhou et al. A master-slave system to acquire biometric imagery of humans at distance
CN106709436A (zh) 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统
CN111460926A (zh) 一种融合多目标跟踪线索的视频行人检测方法
Younis et al. A hazard detection and tracking system for people with peripheral vision loss using smart glasses and augmented reality
US20030035583A1 (en) Segmentation unit for and method of determining a second segment and image processing apparatus
CN111639602B (zh) 一种行人遮挡及朝向检测方法
CN110619674B (zh) 用于事故和警情场景还原的三维增强现实设备及方法
US20070025592A1 (en) Target-region detection apparatus, method and program
CN112562000A (zh) 基于特征点检测和误匹配筛选的机器人视觉定位方法
CN112598709B (zh) 一种基于视频流的行人运动速度智能感知方法
CN111563492B (zh) 一种跌倒检测方法、跌倒检测装置及存储装置
CN112489085A (zh) 目标跟踪方法、目标跟踪装置、电子设备及存储介质
CN104616317B (zh) 一种视频车辆跟踪有效性验证方法
JP5253227B2 (ja) 画像入力装置及び被写体検出方法、プログラム
Nait-Charif et al. Head tracking and action recognition in a smart meeting room
WO2019145411A1 (en) Method and system for head pose estimation
JP7488674B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
Lee et al. Real-time detection of illegally parked vehicles using 1-D transformation
Lo et al. Vanishing point-based line sampling for real-time people localization
Amin et al. A large dataset with a new framework for abandoned object detection in complex scenarios

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20240912

Address after: 234200 Group 8, Lucun, Chaoyang Town, Lingbi County, Suzhou City, Anhui Province

Applicant after: Zhao Hua

Country or region after: China

Address before: 100020 room 108, 1st floor, building 30, 5 Jiangtai Road, Chaoyang District, Beijing

Applicant before: Beijing Pengsi Technology Co.,Ltd.

Country or region before: China