CN110443210A - 一种行人跟踪方法、装置以及终端 - Google Patents

一种行人跟踪方法、装置以及终端 Download PDF

Info

Publication number
CN110443210A
CN110443210A CN201910731654.4A CN201910731654A CN110443210A CN 110443210 A CN110443210 A CN 110443210A CN 201910731654 A CN201910731654 A CN 201910731654A CN 110443210 A CN110443210 A CN 110443210A
Authority
CN
China
Prior art keywords
pedestrian
present image
frame
tracking
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910731654.4A
Other languages
English (en)
Other versions
CN110443210B (zh
Inventor
苏翔博
钟东宏
袁宇辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910731654.4A priority Critical patent/CN110443210B/zh
Publication of CN110443210A publication Critical patent/CN110443210A/zh
Application granted granted Critical
Publication of CN110443210B publication Critical patent/CN110443210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提出一种行人跟踪方法和装置,方法包括:对从视频中提取的前一图像和当前图像进行行人检测,标识出多个行人检测框;对具有行人检测框的前一图像和当前图像进行跟踪计算,得到当前图像中的行人跟踪框;将当前图像中的行人检测框和当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据匹配结果标识出所述当前图像中的人体框;对当前图像中的人体框进行跟踪计算,得到行人跟踪结果。减少了行人被遮挡、行人变换角度姿态所引起的行人漏检问题,保证在人群密集场景的可用性,有效提高了鲁棒性。

Description

一种行人跟踪方法、装置以及终端
技术领域
本发明涉及图像处理技术领域,尤其涉及一种行人跟踪方法、装置以及终端。
背景技术
近些年,随着人工智能技术的不断发展,行人跟踪功能被逐渐应用于监控安防、智慧零售、智慧城市等领域。对于诸如道路卡口、商场、门店等区域,往往通过设置监控摄像头来对来往人群进行监视。可以利用行人跟踪技术对监控图像的所有来往行人进行持续检测,对同一行人持续跟踪。目前,通过行人检测技术逐帧抽取监控图像或抽取部分帧监控图像,并在抽取的监控图像中标识行人框。利用卷积神经网络或HOG(Histogram of OrientedGradient,方向梯度直方图)等传统特征提取算子,提取各行人框的特征向量。基于每个行人框的特征向量对所有监控图像中的行人框进行匹配,以获得行人跟踪结果。
然而,在执行行人检测技术的图像中,有行人出现被其他物体遮挡,或行人突然蹲下等姿态变换,或行人在行走过程中突然更换服装等情况,会出现提取的行人框特征向量无法与系统中已有的行人框成功匹配,使得跟踪结果输出中断或输出错误的跟踪结果。因此,现有的跟踪技术往往出现行人漏检的情况。
发明内容
本发明实施例提供一种行人跟踪方法、装置以及终端,以解决现有技术中的一个或多个技术问题。
第一方面,本发明实施例提供了一种行人跟踪方法,包括:
对从视频中提取的前一图像和当前图像进行行人检测,标识出多个行人检测框;
对具有行人检测框的前一图像和所述当前图像进行跟踪计算,得到所述当前图像中的行人跟踪框;
将所述当前图像中的行人检测框和所述当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据所述匹配结果标识出所述当前图像中的人体框;
对所述当前图像中的人体框进行跟踪计算,得到行人跟踪结果。
在一种实施方式中,将所述当前图像中的行人检测框和所述当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据所述匹配结果标识出所述当前图像中的人体框,包括:
计算所述当前图像中的行人跟踪框和所述当前图像中的行人检测框的重叠率;
在所述重叠率小于阈值的情况下,去掉所述当前图像中的行人跟踪框,保留所述当前图像中的行人检测框;
在所述重叠率大于阈值的情况下,将所述当前图像中的行人跟踪框和所述当前图像中的行人检测框合并,得到合并的行人检测框;
将保留的行人检测框和合并的行人检测框标识为所述当前图像中的人体框。
在一种实施方式中,对所述当前图像中的人体框进行跟踪计算,得到行人跟踪结果,包括:
对所述当前图像中的人体框进行特征提取,得到行人特征向量;
在提取的行人特征向量与数据库中历史时间记录的行人特征向量匹配的情况下,在所述数据库中查询与所述当前图像中的人体框对应的身份标记,并将查询到的身份标记分配给所述当前图像中的人体框,得到所述行人跟踪结果。
在一种实施方式中,还包括:
在提取的行人特征向量与所述数据库中历史时间记录的行人特征向量未匹配的情况下,则给所述当前图像中的人体框分配新的身份标记;
对具有新的身份标记的人体框进行特征提取,得到新的行人特征向量;
将所述新的行人特征向量存储至所述数据库中。
在一种实施方式中,还包括:
在预设时间段内,所述数据库中历史时间记录的行人特征向量并未与任何提取的行人特征向量匹配的情况下,将所述数据库中历史时间记录的行人特征向量标记为离场的行人特征向量。
第二方面,本发明实施例提供了一种行人跟踪装置,包括:
行人检测框标识模块,用于对从视频中提取的前一图像和当前图像进行行人检测,标识出多个行人检测框;
行人跟踪框标识模块,用于对具有行人检测框的前一图像和所述当前图像进行跟踪计算,得到所述当前图像中的行人跟踪框;
人体框标识模块,用于将所述当前图像中的行人检测框和所述当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据所述匹配结果标识出所述当前图像中的人体框;
行人跟踪结果计算模块,用于对所述当前图像中的人体框进行跟踪计算,得到行人跟踪结果。
在一种实施方式中,所述人体框标识模块包括:
重叠率计算单元,用于计算所述当前图像中的行人跟踪框和所述当前图像中的行人检测框的重叠率;
检测框保留单元,用于在所述重叠率小于阈值的情况下,去掉所述当前图像中的行人跟踪框,保留所述当前图像中的行人检测框;
检测框合并单元,用于在所述重叠率大于阈值的情况下,将所述当前图像中的行人跟踪框和所述当前图像中的行人检测框合并,得到合并的行人检测框;
人体框标识单元,用于将保留的行人检测框和合并的行人检测框标识为所述当前图像中的人体框。
在一种实施方式中,所述行人跟踪结果计算模块包括:
行人特征向量提取单元,用于对所述当前图像中的人体框进行特征提取,得到行人特征向量;
行人跟踪结果获取单元,用于在提取的行人特征向量与数据库中历史时间记录的行人特征向量匹配的情况下,在所述数据库中查询与所述当前图像中的人体框对应的身份标记,并将查询到的身份标记分配给所述当前图像中的人体框,得到所述行人跟踪结果。
在一种实施方式中,还包括:
身份标记分配模块,用于在提取的行人特征向量与所述数据库中历史时间记录的行人特征向量未匹配的情况下,则给所述当前图像中的人体框分配新的身份标记;
行人特征向量存储模块,用于对具有新的身份标记的人体框进行特征提取,得到新的行人特征向量,将所述新的行人特征向量存储至所述数据库中。
在一种实施方式中,还包括:
离场标记模块,用于在预设时间段内,所述数据库中历史时间记录的行人特征向量并未与任何提取的行人特征向量匹配的情况下,将所述数据库中历史时间记录的行人特征向量标记为离场的行人特征向量。
第三方面,本发明实施例提供了一种行人跟踪终端,所述行人跟踪终端的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,所述行人跟踪终端的结构中包括处理器和存储器,所述存储器用于存储支持所述行人跟踪终端执行上述行人跟踪方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。所述行人跟踪终端还可以包括通信接口,用于与其他设备或通信网络通信。
第四方面,本发明实施例提供了一种计算机可读存储介质,用于存储行人跟踪终端所用的计算机软件指令,其包括用于执行上述行人跟踪方法所涉及的程序。
上述技术方案中的一个技术方案具有如下优点或有益效果:通过对前一图像中的行人进行跟踪,实时输出监控画面中的行人跟踪结果。跟踪结果作为行人分析技术的基础,为后续如行人属性识别、行人流量统计、行人检索提供信息。既利用了全部的人体框的信息进行跟踪,以保证在大部分场景的可用性,又利用了短时特征的单目标跟踪算法,减少了行人被遮挡、行人变换角度姿态所引起的行人漏检问题,保证在人群密集场景的可用性,有效提高了鲁棒性。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。
图1示出根据本发明实施例的一种行人跟踪方法的流程图。
图2示出根据本发明实施例的一种行人跟踪方法的示意图。
图3示出根据本发明实施例的另一种行人跟踪方法的流程图。
图4示出根据本发明实施例的另一种行人跟踪方法的流程图。
图5示出根据本发明实施例的一种行人跟踪装置的结构框图。
图6示出根据本发明实施例的另一种行人跟踪装置的结构框图。
图7示出根据本发明实施例的另一种行人跟踪装置的结构框图。
图8示出根据本发明实施例的一种行人跟踪终端的结构示意图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
实施例一
在一种具体的实施方式中,提供了一种行人跟踪方法,如图1所示,所述方法包括:
步骤S10:对从视频中提取的前一图像和当前图像进行行人检测,标识出多个行人检测框;
步骤S20:对具有行人检测框的前一图像和当前图像进行跟踪计算,得到所述当前图像中的行人跟踪框;
步骤S30:将当前图像中的行人检测框和当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据匹配结果标识出所述当前图像中的人体框;
步骤S40:对当前图像中的人体框进行跟踪计算,得到行人跟踪结果。
在一种示例中,如图2所示,对一些场景中监控摄像头实时拍摄的视频(图2中的视频流),抽取多帧图像。图像首先经过预处理,被缩放成固定尺寸(如500像素*500像素),再减去统一的RGB均值。例如,[104,117,123]预处理后,可以在参与模型训练的过程中,统一输入预处理后的图像,增强模型鲁棒性。然后,在任意基于深度学习的行人检测模型(图2中的行人检测器)中输入预处理后的图像。行人检测模型包括:SSD(直接多目标检测,SingleShot Multi Box Detector)模型、RefineDet模型(精细直接多目标检测,Single-ShotRefinement Neural Network for Object Detection)、MobileNet-SSD模型(基于针对移动端视觉应用的高效卷积神经网络的直接多目标检测,MobileNet based Single ShotMulti Box Detector)、YOLO模型(统一实时目标检测,You Only Look Once:Unified,Real-Time Object Detection)等。对经过预处理的图像中的行人进行检测,输出一系列行人检测框。每个行人检测框包含行人的位置信息和尺寸信息,且每个行人检测框的区域以像素为单位。目的在于获取拍摄视频中提取的前一图像和当前图像中,所有行人的位置信息和尺寸信息。需要指出的是,前一图像和当前图像表示在时间轴上任意的先后顺序的两帧图像。
然后,利用基于深度学习的单目标跟踪模型进行跟踪计算。单目标跟踪模型可以包括Siamese RPN模型(孪生区域生成网络跟踪器,High Performance Visual Trackingwith Siamese Region Proposal Network)、Siamese RPN++模型(孪生区域生成网络改进跟踪器,SiamRPN++:Evolution of Siamese Visual Tracking with Very DeepNetworks)、Siamese Mask模型(快速在线统一跟踪和分割算法,Fast Online ObjectTracking and Segmentation:A Unifying Approach)等模型。模型对前一图像、前一图像中的行人检测框以及当前图像进行单目标跟踪计算,得到当前图像中的行人跟踪框。行人跟踪框与行人检测框类似,包含行人的位置信息和尺寸信息。将该过程中所得的当前图像中的行人跟踪框与当前图像中的行人检测框进行匹配,得到匹配结果。目的将检测遗漏的行人以人体框的形式标识出来。
最后,利用多目标跟踪算法对前一图像、前一图像中的行人检测框、当前图像以及当前图像中的行人检测框进行跟踪计算,得到行人跟踪结果。跟踪计算所用到的算法可以包括Deep SORT(基于深度特征关联的简单在线实时跟踪算法,Simple Online andRealtime Tracking with a Deep Association Metric)、IOU Tracker算法(交并比跟踪算法,Intersection-over-Union tracker)。对视频抽取下一帧图像,重复上述过程,直至全部图像都处理结束。
本实施方式提供行人跟踪方法,通过对前一图像中的行人进行跟踪,实时输出监控画面中的行人跟踪结果。跟踪结果作为行人分析技术的基础,为后续如行人属性识别、行人流量统计、行人检索提供信息。既利用了全部的人体框的信息进行跟踪,以保证在大部分场景的可用性,又利用了短时特征的单目标跟踪算法,减少了行人被遮挡、行人变换角度姿态所引起的行人漏检问题,保证在人群密集场景的可用性,有效提高了鲁棒性。
在一种实施方式中,如图3所示,步骤S30包括:
步骤S301:计算当前图像中的行人跟踪框和当前图像中的行人检测框的重叠率;
步骤S302:在重叠率小于阈值的情况下,去掉当前图像中的行人跟踪框,保留当前图像中的行人检测框;
步骤S303:在重叠率大于阈值的情况下,将当前图像中的行人跟踪框和当前图像中的行人检测框合并,得到合并的行人检测框;
步骤S304:将保留的行人检测框和合并的行人检测框标识为当前图像中的人体框。
在一种示例中,可以通过计算当前图像中的行人跟踪框和行人检测框之间的交并比得到重叠率。在重叠率小于阈值的情况下,去掉当前图像中的行人跟踪框,保留当前图像中的行人检测框。例如,若重叠率为0,表明人脸检测框和行人检测框并不是来自于同一人。当然,阈值还可以是其它值,可以根据需要进行适应性调整。在重叠率大于阈值的情况下,将当前图像中的行人跟踪框和所述当前图像中的行人检测框合并,得到合并的行人检测框。合并的行人检测框和保留的行人检测框覆盖了全部的行人,避免了检测行人的遗漏问题。
在目标检测中,常会利用非极大值抑制算法(NMS,non maximum suppression)对生成的大量候选框进行后处理,去除冗余的候选框,得到最佳检测框,以加快目标检测的效率。本实施方式中,通过NMS算法(非极大值抑制算法,Non-Maximum Suppression)去除重叠率小于阈值情况下的行人跟踪框,保留的行人检测框和合并的行人检测框成为最终经过补充的人体框(如图2所示的行人框)。该过程的目的在于利用前一图像的短时图像特征,通过单目标跟踪算法为当前图像的检测结果进行补充,以减少因行人遮挡、行人变换姿势引起的漏检。
在一种实施方式中,如图3所示,步骤S40,包括:
步骤S401:对当前图像中的人体框进行特征提取,得到行人特征向量;
步骤S402:在提取的行人特征向量与数据库中历史时间记录的行人特征向量匹配的情况下,在数据库中查询与当前图像中的人体框对应的身份标记,并将查询到的身份标记分配给当前图像中的人体框,得到行人跟踪结果。
在一种示例中,多目标跟踪算法的过程如下:如图2所示,首先使用ReID(行人重识别,Person Re-identification)模型,对当前图像中的人体框进行特征提取,得到行人特征向量(如图2所示的ReID特征向量)。ReID模型可以包括:基于N-Pair metric learning(多类别多配对度量学习)训练的卷积神经网络模型、HOG(梯度直方图,Histogram oforiented gradient)模型等。然后将提取到的行人特征向量与数据库中历史时间记录的行人特征向量匹配。如果当前图像的此人体框与已有的人体框匹配成功,则可以判定当前图像的此人体框与历史时间记录的行人特征向量属于同一行人。在将当前图像的此人体框和历史时间记录的行人框标记为同一人。例如,同时标记有相同的身份识别码(ID),即为得到当前图像的行人跟踪结果。之后,将当前图像的某个人体框提取到的特征向量加入数据库中,并将当前追踪结果添加到相应行人的跟踪轨迹上。每次跟踪结束后,都记录有每个出现过的行人在过去若干图像中的特征向量,保留每个行人在整个轨迹过程中的特征信息。
在一种实施方式中,如图4所示,该方法还包括:
步骤S50:在提取的行人特征向量与所述数据库中历史时间记录的行人特征向量未匹配的情况下,则给当前图像中的人体框分配新的身份标记;
步骤S60:对具有新的身份标记的人体框进行特征提取,得到新的行人特征向量;
步骤S70:将新的行人特征向量存储至数据库中。
在一种示例中,如果当前图像的此人体框与已有的人体框未匹配上,则认为当前图像的此人体框首次出现,为其分配新的ID,并记录。对具有新的身份标记的人体框进行特征提取,得到新的行人特征向量,存储在数据库中,便于后续在数据库中的查询。
在一种实施方式中,如图4所示,该方法还包括:
步骤S80:在预设时间段内,数据库中历史时间记录的行人特征向量并未与任何提取的行人特征向量匹配的情况下,将数据库中历史时间记录的行人特征向量标记为离场的行人特征向量。
在一种示例中,将数据库中的预设时间段内未与任何行人检测框匹配的行人特征向量,标记为离场。在未来并不再参与与任何行人检测框之间的匹配。
实施例二
在另一种具体实施方式中,如图5所示,提供了一种行人跟踪装置,包括:
行人检测框标识模块10,用于对从视频中提取的前一图像和当前图像进行行人检测,标识出多个行人检测框;
行人跟踪框标识模块20,用于对具有行人检测框的前一图像和所述当前图像进行跟踪计算,得到所述当前图像中的行人跟踪框;
人体框标识模块30,用于将所述当前图像中的行人检测框和所述当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据所述匹配结果标识出所述当前图像中的人体框;
行人跟踪结果计算模块40,用于对所述当前图像中的人体框进行跟踪计算,得到行人跟踪结果。
在一种实施方式中,如图6所示,所述人体框标识模块30包括:
重叠率计算单元301,用于计算所述当前图像中的行人跟踪框和所述当前图像中的行人检测框的重叠率;
检测框保留单元302,用于在所述重叠率小于阈值的情况下,去掉所述当前图像中的行人跟踪框,保留所述当前图像中的行人检测框;
检测框合并单元303,用于在所述重叠率大于阈值的情况下,将所述当前图像中的行人跟踪框和所述当前图像中的行人检测框合并,得到合并的行人检测框;
人体框标识单元304,用于将保留的行人检测框和合并的行人检测框标识为所述当前图像中的人体框。
在一种实施方式中,如图6所示,所述行人跟踪结果计算模块40包括:
行人特征向量提取单元401,用于对所述当前图像中的人体框进行特征提取,得到行人特征向量;
行人跟踪结果获取单元402,用于在提取的行人特征向量与数据库中历史时间记录的行人特征向量匹配的情况下,在所述数据库中查询与所述当前图像中的人体框对应的身份标记,并将查询到的身份标记分配给所述当前图像中的人体框,得到所述行人跟踪结果。
在一种实施方式中,如图7所示,还包括:
身份标记分配模块50,用于在提取的行人特征向量与所述数据库中历史时间记录的行人特征向量未匹配的情况下,则给所述当前图像中的人体框分配新的身份标记;
行人特征向量存储模块60,用于对具有新的身份标记的人体框进行特征提取,得到新的行人特征向量,将所述新的行人特征向量存储至所述数据库中。
在一种实施方式中,如图7所示,还包括:
离场标记模块70,用于在预设时间段内,所述数据库中历史时间记录的行人特征向量并未与任何提取的行人特征向量匹配的情况下,将所述数据库中历史时间记录的行人特征向量标记为离场的行人特征向量。
本发明实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
实施例三
图8示出根据本发明实施例的行人跟踪终端的结构框图。如图8所示,该终端包括:存储器910和处理器920,存储器910内存储有可在处理器920上运行的计算机程序。所述处理器920执行所述计算机程序时实现上述实施例中的行人跟踪方法。所述存储器910和处理器920的数量可以为一个或多个。
该终端还包括:
通信接口930,用于与外界设备进行通信,进行数据交互传输。
存储器910可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器910、处理器920和通信接口930独立实现,则存储器910、处理器920和通信接口930可以通过总线相互连接并完成相互间的通信。所述总线可以是工业标准体系结构(ISA,Industry Standard Architecture)总线、外部设备互连(PCI,PeripheralComponent Interconnect)总线或扩展工业标准体系结构(EISA,Extended IndustryStandard Architecture)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器910、处理器920及通信接口930集成在一块芯片上,则存储器910、处理器920及通信接口930可以通过内部接口完成相互间的通信。
本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现上述实施例中任一所述方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。所述存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (12)

1.一种行人跟踪方法,其特征在于,包括:
对从视频中提取的前一图像和当前图像进行行人检测,标识出多个行人检测框;
对具有行人检测框的前一图像和所述当前图像进行跟踪计算,得到所述当前图像中的行人跟踪框;
将所述当前图像中的行人检测框和所述当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据所述匹配结果标识出所述当前图像中的人体框;
对所述当前图像中的人体框进行跟踪计算,得到行人跟踪结果。
2.根据权利要求1所述的方法,其特征在于,将所述当前图像中的行人检测框和所述当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据所述匹配结果标识出所述当前图像中的人体框,包括:
计算所述当前图像中的行人跟踪框和所述当前图像中的行人检测框的重叠率;
在所述重叠率小于阈值的情况下,去掉所述当前图像中的行人跟踪框,保留所述当前图像中的行人检测框;
在所述重叠率大于阈值的情况下,将所述当前图像中的行人跟踪框和所述当前图像中的行人检测框合并,得到合并的行人检测框;
将保留的行人检测框和合并的行人检测框标识为所述当前图像中的人体框。
3.根据权利要求1所述的方法,其特征在于,对所述当前图像中的人体框进行跟踪计算,得到行人跟踪结果,包括:
对所述当前图像中的人体框进行特征提取,得到行人特征向量;
在提取的行人特征向量与数据库中历史时间记录的行人特征向量匹配的情况下,在所述数据库中查询与所述当前图像中的人体框对应的身份标记,并将查询到的身份标记分配给所述当前图像中的人体框,得到所述行人跟踪结果。
4.根据权利要求3所述的方法,其特征在于,还包括:
在提取的行人特征向量与所述数据库中历史时间记录的行人特征向量未匹配的情况下,则给所述当前图像中的人体框分配新的身份标记;
对具有新的身份标记的人体框进行特征提取,得到新的行人特征向量;
将所述新的行人特征向量存储至所述数据库中。
5.根据权利要求3所述的方法,其特征在于,还包括:
在预设时间段内,所述数据库中历史时间记录的行人特征向量并未与任何提取的行人特征向量匹配的情况下,将所述数据库中历史时间记录的行人特征向量标记为离场的行人特征向量。
6.一种行人跟踪装置,其特征在于,包括:
行人检测框标识模块,用于对从视频中提取的前一图像和当前图像进行行人检测,标识出多个行人检测框;
行人跟踪框标识模块,用于对具有行人检测框的前一图像和所述当前图像进行跟踪计算,得到所述当前图像中的行人跟踪框;
人体框标识模块,用于将所述当前图像中的行人检测框和所述当前图像中的行人跟踪框进行匹配,得到匹配结果,并根据所述匹配结果标识出所述当前图像中的人体框;
行人跟踪结果计算模块,用于对所述当前图像中的人体框进行跟踪计算,得到行人跟踪结果。
7.根据权利要求6所述的装置,其特征在于,所述人体框标识模块包括:
重叠率计算单元,用于计算所述当前图像中的行人跟踪框和所述当前图像中的行人检测框的重叠率;
检测框保留单元,用于在所述重叠率小于阈值的情况下,去掉所述当前图像中的行人跟踪框,保留所述当前图像中的行人检测框;
检测框合并单元,用于在所述重叠率大于阈值的情况下,将所述当前图像中的行人跟踪框和所述当前图像中的行人检测框合并,得到合并的行人检测框;
人体框标识单元,用于将保留的行人检测框和合并的行人检测框标识为所述当前图像中的人体框。
8.根据权利要求6所述的装置,其特征在于,所述行人跟踪结果计算模块包括:
行人特征向量提取单元,用于对所述当前图像中的人体框进行特征提取,得到行人特征向量;
行人跟踪结果获取单元,用于在提取的行人特征向量与数据库中历史时间记录的行人特征向量匹配的情况下,在所述数据库中查询与所述当前图像中的人体框对应的身份标记,并将查询到的身份标记分配给所述当前图像中的人体框,得到所述行人跟踪结果。
9.根据权利要求8所述的装置,其特征在于,还包括:
身份标记分配模块,用于在提取的行人特征向量与所述数据库中历史时间记录的行人特征向量未匹配的情况下,则给所述当前图像中的人体框分配新的身份标记;
行人特征向量存储模块,用于对具有新的身份标记的人体框进行特征提取,得到新的行人特征向量,将所述新的行人特征向量存储至所述数据库中。
10.根据权利要求8所述的装置,其特征在于,还包括:
离场标记模块,用于在预设时间段内,所述数据库中历史时间记录的行人特征向量并未与任何提取的行人特征向量匹配的情况下,将所述数据库中历史时间记录的行人特征向量标记为离场的行人特征向量。
11.一种行人跟踪终端,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至5中任一项所述方法。
12.一种计算机可读存储介质,其存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至5中任一项所述方法。
CN201910731654.4A 2019-08-08 2019-08-08 一种行人跟踪方法、装置以及终端 Active CN110443210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910731654.4A CN110443210B (zh) 2019-08-08 2019-08-08 一种行人跟踪方法、装置以及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910731654.4A CN110443210B (zh) 2019-08-08 2019-08-08 一种行人跟踪方法、装置以及终端

Publications (2)

Publication Number Publication Date
CN110443210A true CN110443210A (zh) 2019-11-12
CN110443210B CN110443210B (zh) 2021-11-26

Family

ID=68434122

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910731654.4A Active CN110443210B (zh) 2019-08-08 2019-08-08 一种行人跟踪方法、装置以及终端

Country Status (1)

Country Link
CN (1) CN110443210B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889453A (zh) * 2019-11-28 2020-03-17 华南理工大学 目标检测与追踪方法、装置、系统、介质和设备
CN111126152A (zh) * 2019-11-25 2020-05-08 国网信通亿力科技有限责任公司 一种基于视频的多目标行人检测与跟踪的方法
CN111161320A (zh) * 2019-12-30 2020-05-15 浙江大华技术股份有限公司 一种目标跟踪方法、目标跟踪装置及计算机可读介质
CN111192297A (zh) * 2019-12-31 2020-05-22 山东广域科技有限责任公司 一种基于度量学习的多摄像头目标关联跟踪方法
CN111325135A (zh) * 2020-02-17 2020-06-23 天津中科智能识别产业技术研究院有限公司 一种基于深度学习特征模板匹配的在线实时行人跟踪新方法
CN111402295A (zh) * 2020-03-11 2020-07-10 桂林理工大学 基于对象检测和跟踪的移动物体识别方法
CN111724409A (zh) * 2020-05-18 2020-09-29 浙江工业大学 一种基于密集连接孪生神经网络的目标跟踪方法
CN112257527A (zh) * 2020-10-10 2021-01-22 西南交通大学 基于多目标融合与时空视频序列的手机检测方法
CN112597917A (zh) * 2020-12-25 2021-04-02 太原理工大学 一种基于深度学习的车辆停车检测方法
CN113112866A (zh) * 2021-04-14 2021-07-13 深圳市旗扬特种装备技术工程有限公司 一种智能交通预警方法及智能交通预警系统
WO2021147826A1 (zh) * 2020-01-21 2021-07-29 北京工业大学 一种面向边缘端行人跟踪和人数精确统计的方法
CN113392754A (zh) * 2021-06-11 2021-09-14 成都掌中全景信息技术有限公司 一种基于yolov5行人检测算法减少行人误检测率的方法
CN113823180A (zh) * 2021-09-29 2021-12-21 国网山东省电力公司临朐县供电公司 一种标识牌悬挂装置及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107644204A (zh) * 2017-09-12 2018-01-30 南京凌深信息科技有限公司 一种用于安防系统的人体识别与跟踪方法
CN109903310A (zh) * 2019-01-23 2019-06-18 平安科技(深圳)有限公司 目标跟踪方法、装置、计算机装置及计算机存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107644204A (zh) * 2017-09-12 2018-01-30 南京凌深信息科技有限公司 一种用于安防系统的人体识别与跟踪方法
CN109903310A (zh) * 2019-01-23 2019-06-18 平安科技(深圳)有限公司 目标跟踪方法、装置、计算机装置及计算机存储介质

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126152A (zh) * 2019-11-25 2020-05-08 国网信通亿力科技有限责任公司 一种基于视频的多目标行人检测与跟踪的方法
CN111126152B (zh) * 2019-11-25 2023-04-11 国网信通亿力科技有限责任公司 一种基于视频的多目标行人检测与跟踪的方法
CN110889453A (zh) * 2019-11-28 2020-03-17 华南理工大学 目标检测与追踪方法、装置、系统、介质和设备
CN111161320A (zh) * 2019-12-30 2020-05-15 浙江大华技术股份有限公司 一种目标跟踪方法、目标跟踪装置及计算机可读介质
CN111192297A (zh) * 2019-12-31 2020-05-22 山东广域科技有限责任公司 一种基于度量学习的多摄像头目标关联跟踪方法
WO2021147826A1 (zh) * 2020-01-21 2021-07-29 北京工业大学 一种面向边缘端行人跟踪和人数精确统计的方法
CN111325135A (zh) * 2020-02-17 2020-06-23 天津中科智能识别产业技术研究院有限公司 一种基于深度学习特征模板匹配的在线实时行人跟踪新方法
CN111325135B (zh) * 2020-02-17 2022-11-29 天津中科智能识别产业技术研究院有限公司 一种基于深度学习特征模板匹配的在线实时行人跟踪新方法
CN111402295B (zh) * 2020-03-11 2023-08-08 桂林理工大学 基于对象检测和跟踪的移动物体识别方法
CN111402295A (zh) * 2020-03-11 2020-07-10 桂林理工大学 基于对象检测和跟踪的移动物体识别方法
CN111724409A (zh) * 2020-05-18 2020-09-29 浙江工业大学 一种基于密集连接孪生神经网络的目标跟踪方法
CN112257527B (zh) * 2020-10-10 2022-09-02 西南交通大学 基于多目标融合与时空视频序列的手机检测方法
CN112257527A (zh) * 2020-10-10 2021-01-22 西南交通大学 基于多目标融合与时空视频序列的手机检测方法
CN112597917A (zh) * 2020-12-25 2021-04-02 太原理工大学 一种基于深度学习的车辆停车检测方法
CN113112866A (zh) * 2021-04-14 2021-07-13 深圳市旗扬特种装备技术工程有限公司 一种智能交通预警方法及智能交通预警系统
CN113392754A (zh) * 2021-06-11 2021-09-14 成都掌中全景信息技术有限公司 一种基于yolov5行人检测算法减少行人误检测率的方法
CN113823180A (zh) * 2021-09-29 2021-12-21 国网山东省电力公司临朐县供电公司 一种标识牌悬挂装置及方法

Also Published As

Publication number Publication date
CN110443210B (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN110443210A (zh) 一种行人跟踪方法、装置以及终端
CN110427905A (zh) 行人跟踪方法、装置以及终端
Ibrahim et al. An automatic Arabic sign language recognition system (ArSLRS)
St-Charles et al. A self-adjusting approach to change detection based on background word consensus
CN112926410B (zh) 目标跟踪方法、装置、存储介质及智能视频系统
CN110942006B (zh) 运动姿态识别方法、运动姿态识别装置、终端设备及介质
CN104050449B (zh) 一种人脸识别方法及装置
US11514625B2 (en) Motion trajectory drawing method and apparatus, and device and storage medium
Vankadari et al. Unsupervised monocular depth estimation for night-time images using adversarial domain feature adaptation
CN110264493A (zh) 一种针对运动状态下的多目标对象追踪方法和装置
CN109784277B (zh) 一种基于智能眼镜的情绪识别方法
CN111091025B (zh) 图像处理方法、装置和设备
Orabona et al. A proto-object based visual attention model
CN106446002A (zh) 一种基于运动目标在地图中轨迹的视频检索方法
García et al. Adaptive multi-cue 3D tracking of arbitrary objects
CN109784230A (zh) 一种人脸视频图像质量寻优方法、系统及设备
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN111291612A (zh) 一种基于多人多摄像头跟踪的行人重识别方法及装置
CN113449606A (zh) 一种目标对象识别方法、装置、计算机设备及存储介质
CN111028266B (zh) 畜禽盘点方法、装置、电子设备和存储介质
JP7163718B2 (ja) 干渉領域検出装置と方法及び電子機器
Yao et al. Micro-expression recognition by feature points tracking
CN108717522A (zh) 一种基于深度学习和相关滤波的人体目标跟踪方法
Yu et al. A real-time motion detection algorithm for traffic monitoring systems based on consecutive temporal difference
CN112488985A (zh) 图像质量确定方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant