CN112183286A - 目标跟踪方法、装置、计算机设备和存储介质 - Google Patents
目标跟踪方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN112183286A CN112183286A CN202011001836.5A CN202011001836A CN112183286A CN 112183286 A CN112183286 A CN 112183286A CN 202011001836 A CN202011001836 A CN 202011001836A CN 112183286 A CN112183286 A CN 112183286A
- Authority
- CN
- China
- Prior art keywords
- target
- video frame
- information
- matching
- subsequent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种目标跟踪方法、装置、计算机设备和存储介质。所述方法包括:获取对目标环境进行采集所得的视频帧;对所述视频帧进行目标识别,得到第一目标信息;当获得对所述目标环境进行采集所得的在后视频帧时,对所述在后视频帧进行目标识别,得到第二目标信息;所述在后视频帧是在所述视频帧之后所采集的视频帧;根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配,得到匹配结果;根据所述匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果。采用本方法能够对初始化帧之外的其它视频帧中出现的新目标进行跟踪。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种目标跟踪方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,基于计算机视觉的目标跟踪技术快速发展并在智能视频监控、智能交通、虚拟现实、精确制导等多个领域中广泛应用。
传统技术中,使用基于初始化帧的跟踪方法,首先在初始化帧中选择跟踪目标,然后通过跟踪算法对所选择的跟踪目标进行跟踪,只能跟踪到在初始化帧中选择的目标,不能跟踪出现的新目标。
发明内容
基于此,有必要针对上述技术问题,提供一种能够解决无法对初始化帧之外的其它视频帧中出现的新目标进行跟踪的目标跟踪方法、装置、计算机设备和存储介质。
一种目标跟踪方法,所述方法包括:
获取对目标环境进行采集所得的视频帧;
对所述视频帧进行目标识别,得到第一目标信息;
当获得对所述目标环境进行采集所得的在后视频帧时,对所述在后视频帧进行目标识别,得到第二目标信息;所述在后视频帧是在所述视频帧之后所采集的视频帧;
根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配,得到匹配结果;
根据所述匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,所述第一目标信息包括第一目标类型和第一目标置信值;所述第二目标信息包括第二目标类型和第二目标置信值;所述方法还包括:
在所述第一目标信息中删除第一目标置信值低于第一置信阈值的目标信息,及在所述第二目标信息中删除第二目标置信值低于第二置信阈值的目标信息;
在所述视频帧和所述在后视频帧中,根据所述第一目标类型和所述第二目标类型确定类型相同的目标;
所述根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配包括:
根据删除处理后所得的所述第二目标信息和所述第一目标信息,对所述视频帧和所述在后视频帧中所述相同类型的目标进行匹配。
在一个实施例中,所述第一目标信息包括第一目标位置信息;所述第二目标信息包括第二目标位置信息;所述方法还包括:
对所述视频帧中的目标进行运动预测;
基于所述运动预测的结果对所述第一目标位置信息进行更新;
所述根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配包括:
基于所述第二目标位置信息以及更新后的第一目标位置信息对所述视频帧和所述在后视频帧中的目标进行匹配。
在一个实施例中,所述基于所述第二目标位置信息以及更新后的第一目标位置信息对所述视频帧和所述在后视频帧中的目标进行匹配之后,所述方法还包括:
基于匈牙利匹配算法对所述匹配结果进行调整,得到最终的匹配结果;
所述根据所述匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果包括:
根据所述最终的匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,所述根据所述匹配结果获得对所述视频帧中的目标进行跟踪的跟踪结果包括:
若根据所述匹配结果确定所述视频帧中的目标与所述在后视频帧中的目标不匹配时,则确定所述视频帧中的目标被遮挡或移出所述目标环境;
若根据所述匹配结果确定所述视频帧中的目标出现于所述在后视频帧中,则在所述在后视频帧中对所述目标进行标记;
为所述新目标分配新的标识。
在一个实施例中,所述第一目标信息存储于存储器;所述方法还包括:
当获得在所述在后视频帧之后的预设时间内所采集的至少一个目标视频帧时,若被遮挡或移出所述目标环境的目标未出现于所述至少一个目标视频帧,则将所述第一目标信息删除。
一种目标跟踪装置,所述装置包括:
获取模块,用于获取对目标环境进行采集所得的视频帧;
目标识别模块,用于对所述视频帧进行目标识别,得到第一目标信息;
所述目标识别模块模块,还用于当获得对所述目标环境进行采集所得的在后视频帧时,对所述在后视频帧进行目标识别,得到第二目标信息;所述在后视频帧是在所述视频帧之后所采集的视频帧;
匹配模块,用于根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配,得到匹配结果;
获得模块,用于根据所述匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,所述第一目标信息包括第一目标类型和第一目标置信值;所述第二目标信息包括第二目标类型和第二目标置信值;所述装置还包括:
删除模块,用于在所述第一目标信息中删除第一目标置信值低于第一置信阈值的目标信息,及在所述第二目标信息中删除第二目标置信值低于第二置信阈值的目标信息;
确定模块,用于在所述视频帧和所述在后视频帧中,根据所述第一目标类型和所述第二目标类型确定类型相同的目标;
所述匹配模块,还用于:
根据删除处理后所得的所述第二目标信息和所述第一目标信息,对所述视频帧和所述在后视频帧中所述相同类型的目标进行匹配。
在一个实施例中,所述第一目标信息包括第一目标位置信息;所述第二目标信息包括第二目标位置信息;所述装置还包括:
运动预测模块,用于对所述视频帧中的目标进行运动预测;
更新模块,用于基于所述运动预测的结果对所述第一目标位置信息进行更新;
所述匹配模块,还用于:
基于所述第二目标位置信息以及更新后的第一目标位置信息对所述视频帧和所述在后视频帧中的目标进行匹配。
在一个实施例中,所述装置还包括:
调整模块,用于基于匈牙利匹配算法对所述匹配结果进行调整,得到最终的匹配结果;
所述获得模块,还用于:
根据所述最终的匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,所述获得模块,还用于:
若根据所述匹配结果确定所述视频帧中的目标与所述在后视频帧中的目标不匹配时,则确定所述视频帧中的目标被遮挡或移出所述目标环境;
若根据所述匹配结果确定所述视频帧中的目标出现于所述在后视频帧中,则在所述在后视频帧中对所述目标进行标记;
为所述新目标分配新的标识。
在一个实施例中,所述第一目标信息存储于存储器;
所述删除模块,还用于当获得在所述在后视频帧之后的预设时间内所采集的至少一个目标视频帧时,若被遮挡或移出所述目标环境的目标未出现于所述至少一个目标视频帧,则将所述第一目标信息删除。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现所述目标跟踪方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所述目标跟踪方法的步骤。
上述实施例中,计算机设备获取对目标环境进行采集所得的视频帧,然后对视频帧进行目标识别,得到第一目标信息。计算机设备继续获取对目标环境进行采集所得的视频帧,当获得在视频帧之后采集的在后视频帧时,对在后视频帧进行目标识别,得到第二目标信息。服务器基于第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配。由于计算机设备在对在后视频帧进行目标识别时,不仅可以识别出视频帧中已经出现的目标,而且可以识别出视频帧中未出现的目标,并且得到的第二目标信息中包括新出现的目标所对应的目标信息。所以计算机设备在基于第一目标信息和第二目标信息对视频帧和在后视频帧中的目标进行匹配时,可以根据匹配结果确定在后视频帧中新出现的目标并获得新目标的位置信息。
附图说明
图1为一个实施例中目标跟踪方法的应用环境图;
图2为一个实施例中目标跟踪方法的流程示意图;
图3为一个实施例中跟踪结果的示意图;
图4为一个实施例中对视频帧和在后视频帧中目标进行匹配的流程示意图;
图5为另一个实施例中对视频帧和在后视频帧中目标进行匹配的流程示意图;
图6a为一个实施例中视频帧和在后视频帧中目标匹配结果的示意图;
图6b为另一个实施例中视频帧和在后视频帧中目标匹配结果的示意图;
图6c为另一个实施例中视频帧和在后视频帧中目标匹配结果的示意图;
图7为一个实施例中获得跟踪结果的流程示意图;
图8为一个实施例中目标跟踪装置的结构框图;
图9为另一个实施例中目标跟踪装置的结构框图;
图10为一个实施例中计算机设备的内部结构图;
图11为另一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的目标跟踪方法,可以应用于如图1所示的应用环境中。其中,计算机设备102通过网络获取视频采集设备104对目标环境进行采集所得的视频帧。然后对视频帧进行目标识别,得到第一目标信息。服务器继续获取对目标环境进行采集所得的视频帧,当获得在视频帧之后采集的在后视频帧时,对在后视频帧进行目标识别,得到第二目标信息。服务器基于第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配。根据匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
其中,计算机设备102可以是终端也可以是服务器,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种目标跟踪方法,以该方法应用于图1中的计算机设备为例进行说明,包括以下步骤:
S202,计算机设备获取对目标环境进行采集所得的视频帧。
其中,目标环境是现实中的环境场景。对目标环境进行采集所得的视频帧中包含至少一个目标。其中,视频帧中的目标可以是各种类型的目标,例如可以是静止的目标,也可以是运动的目标;可以是人、动物、植物等生物,也可以是机动车、建筑物、自然景观等。
其中,视频帧可以是视频采集设备所采集的视频流中的一帧。视频帧可以是无压缩格式的视频帧,也可以是各种压缩格式的视频帧,也可以是压缩后的I帧(帧内编码帧)、B帧(双向预测帧)或者P帧(前向预测帧)。其中,压缩格式可以是MPEG-2、MPEG-4或者H.264等。
S204,计算机设备对视频帧进行目标识别,得到第一目标信息。
其中,目标识别是将视频帧中的目标从背景中分离出来,并得到该目标对应的目标信息的过程。该第一目标信息可以包括目标的目标类型、表示目标属于目标类型的置信度的置信值、目标的特征等。
计算机设备可以采用部署的神经网络模型或者递归神经网络模型等模型对视频帧进行目标识别。计算机设备在对视频帧进行目标识别之前,可以对视频帧进行预处理,例如,对视频帧进行去噪处理、消除非线性失真的处理等,或者对视频帧进行二值化处理、改变视频帧的饱和度或者图像锐度等,或者改变视频帧的分辨率或者尺寸大小等。
在一个实施例中,计算机设备根据视频帧中目标的特征进行目标识别。在进行目标识别时,首先提取视频帧中目标的特征。其中,视频帧中目标的特征包括颜色特征、纹理特征、空间特征、形状特征等。颜色特征可以是颜色通道直方图、颜色矩等。纹理特征可以是统计型纹理特征、模型型纹理特征、信号处理型纹理特征等。空间特征可以是Harr特征、LBP(Local Binary Pattern,局部二值模式)特征、HOG(Histogram of Oriented Gradient,方向梯度直方图)特征等。形状特征可以是直线段描述、样条拟合曲线、博立叶描述子、内角直方图以及高斯参数曲线等。
在一个实施例中,计算机设备用一个扫描窗口在视频帧中不断的移位滑动,扫描窗口每滑动到一个位置,计算机设备就会计算出该扫描窗口所包含的区域的特征,然后通过训练好的神经网络模型根据特征判断该区域是否为目标。由于各目标在视频帧中的大小可能和神经网络模型在训练时使用的样本大小不同,所以需要将扫描窗口调整为不同的大小,每次调整后在图像中滑动一遍,以识别出各种大小的目标。
S206,当计算机设备获得对目标环境进行采集所得的在后视频帧时,对在后视频帧进行目标识别,得到第二目标信息;在后视频帧是在视频帧之后所采集的视频帧。
其中,在后视频帧可以与视频帧的格式相同或不同。计算机设备对在后视频帧进行目标识别的过程可以参考上述计算机设备对视频帧进行目标识别的过程。
其中,第二目标信息是计算机设备对在后视频帧进行目标识别之后所得的目标信息。第二目标信息可以包括该目标的目标类型、表示目标属于目标类型的置信度的置信值、目标的特征等。
S208,计算机设备根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配,得到匹配结果。
计算机设备根据第二目标信息和第一目标信息判断视频帧中的目标和在后视频帧中的目标是否是同一个目标,将可能是同一个目标的目标进行匹配。
计算机设备可以根据各个目标的特征对目标进行匹配,也可以根据各个目标的位置信息对目标进行匹配。
其中,匹配结果表示了视频帧中的目标和在后视频帧中目标的匹配关系。例如,如图3所示,计算机设备对视频帧进行目标识别,在视频帧中识别出树、人、动物三个目标,并分别获取这三个目标的第一目标信息。然后计算机设备对获取的在后视频帧进行目标识别,识别出树、机动车、人三个目标,并分别获取这三个目标的第二目标信息。计算机设备根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配,将视频帧中的树和在后视频帧中的树进行匹配,将视频帧中的人和在后视频帧中的人进行匹配。由于动物不能和在后视频帧中目标匹配,是移出目标环境的目标。机动车不能和视频帧中目标进行匹配,是在后视频帧中出现的新目标。
S210,计算机设备根据匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
计算机设备根据匹配结果确定在后视频帧中出现的新目标,然后根据第二目标信息获得新目标的位置信息。
计算机设备根据匹配结果获得对视频帧中的目标进行跟踪的跟踪结果。例如,计算机设备根据匹配结果确定视频帧中目标在在后视频帧中的位置,或者确定视频中的目标在在后视频帧中被遮挡或者被移出目标环境。
在一个实施例中,计算机设备在识别出视频帧中的目标后,获取各目标在视频帧中的位置坐标,在识别出在后视频帧中的目标后,获取各目标在在后视频帧中的位置坐标。计算机设备在得到匹配结果后,对于在视频帧和在后视频帧中均出现的目标,计算机设备以该目标在视频帧中的位置坐标为起点,以该目标于在后视频帧中的位置坐标为终点画一条线,于在后视频帧中标示所画的线,计算机设备所画出的线为对视频帧中目标进行跟踪的跟踪轨迹。
上述实施例中,计算机设备获取对目标环境进行采集所得的视频帧,然后对视频帧进行目标识别,得到第一目标信息。计算机设备继续获取对目标环境进行采集所得的视频帧,当获得在视频帧之后采集的在后视频帧时,对在后视频帧进行目标识别,得到第二目标信息。服务器基于第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配。由于计算机设备在对在后视频帧进行目标识别时,不仅可以识别出视频帧中已经出现的目标,而且可以识别出视频帧中未出现的目标,并且得到的第二目标信息中包括出现的新目标的目标信息。所以计算机设备在基于第一目标信息和第二目标信息对视频帧和在后视频帧中的目标进行匹配时,可以根据匹配结果确定在后视频帧中出现的新目标并获得新目标的位置信息。
在一个实施例中,第一目标信息包括第一目标类型和第一目标置信值;第二目标信息包括第二目标类型和第二目标置信值;如图4所示,目标跟踪方法还包括如下步骤:
S402,计算机设备在第一目标信息中删除第一目标置信值低于第一置信阈值的目标信息,及在第二目标信息中删除第二目标置信值低于第二置信阈值的目标信息。
S404,在视频帧和在后视频帧中,计算机设备根据第一目标类型和第二目标类型确定类型相同的目标。
S406,计算机设备根据删除处理后所得的第二目标信息和第一目标信息,对视频帧和在后视频帧中相同类型的目标进行匹配。
其中,目标类型表示目标所从属的类型。例如,类型可以是人、动物、建筑物、机动车、植物等。
其中,目标置信值表示目标从属于对应的目标类型的置信度。目标置信值越高表示目标从属于对应的目标类型的置信度越高,也即计算机设备对目标进行识别的结果越准确。
计算机设备将第一目标信息和第二目标信息中目标置信值低于置信阈值的目标信息删除,也即将识别结果不准确的目标所对应的目标信息删除。然后根据删除后的目标信息进行匹配,可以提高匹配的准确率。
计算机设备对目标进行分类,对同一类型的目标进行匹配,可以防止不同类型的目标间产生干扰,并且仅对同一类型的目标进行匹配可以降低计算量。
在一个实施例中,第一目标信息包括第一目标位置信息;第二目标信息包括第二目标位置信息;如图5所示,目标跟踪方法还包括如下步骤:
S502,计算机设备对视频帧中的目标进行运动预测。
S504,基于运动预测的结果对第一目标位置信息进行更新。
S506,计算机设备基于第二目标位置信息以及更新后的第一目标位置信息对视频帧和在后视频帧中的目标进行匹配。
其中,运动预测是通过物体已知的运动信息对物体未来的运动状态进行估计。计算机设备可以通过目标已知的运动轨迹拟合出目标的运动函数,通过运动函数估计目标在未来的运动轨迹。计算机设备可以通过卡尔曼滤波算法、扩展卡尔曼滤波算法或者数据拟合算法对视频帧中的目标进行运动预测。
对于运动速度比较快的目标,其在视频帧中的位置和在在后视频帧中的位置会发生很大变化。如果基于第一目标位置信息和第二目标位置信息对目标进行匹配,可能会得到错误的结果。例如,如图6a所示,目标A和B在视频帧中的位置如实线框所示,虚线框A1是目标A在在后视频帧中的位置,虚线框B1是目标B在在后视频帧中的位置。在A和B运动速度较慢的情况下,A和A1的位置接近,B和B1的位置接近,所以计算机设备将A和A1进行匹配,将B和B1进行匹配。如图6b所示,在A和B运动速度较快的情况下,A在在后视频帧中运动至A1的位置,B在在后视频帧中运动至B1的位置,则计算机设备基于第一目标位置信息和第二目标位置信息会将B和A1进行匹配,从而得到错误的匹配结果。如图6c所示,A2是对A进行运动预测后得到的A在在后视频帧中的位置。B2是对B进行运动预测后得到的B在在后视频帧中的位置,所以计算机设备基于第二目标位置信息以及通过运动预测更新后的第一目标位置信息对视频帧和在后视频帧中的目标进行匹配得到的匹配结果是A1和A2匹配,B1和B2匹配,从而得到了正确的匹配结果。
计算机设备通过对视频帧中目标进行运动预测可以消除由于目标运动太快而产生的匹配误差。
在一个实施例中,计算机设备通过第一目标位置信息和第二目标位置信息计算视频帧中目标和在后视频帧中目标的欧式距离,根据计算出的欧式距离对视频帧中目标和在后视频帧中目标进行匹配。例如,如果视频帧中目标A和在后视频帧中目标B间的欧式距离为3,视频帧中目标A和在后视频帧中目标C间的欧式距离为5,由于,A和C间的欧式距离较小,所以则计算机设备将A和C进行匹配。
在一个实施例中,计算机设备通过第一目标位置信息和第二目标位置信息得到视频帧中目标所在的目标区域和在后视频帧中目标所在的目标区域。计算机设备通过计算视频帧中目标和在后视频帧中目标所在的目标区域的交并比对两帧中各目标进行匹配。其中交并比是视频帧中目标所在的目标区域和在后视频帧中目标所在的目标区域的交集与并集的比值。计算机设备可以设置对视频帧中目标和在后视频帧中目标进行匹配的匹配条件。例如,计算机设备可以设置匹配条件为交并比与1的差值小于预设的差值阈值,或者设置匹配条件为交并比达到某个数值,或者设置匹配条件为交并比在某个数值区间内。例如,如果视频帧中目标A所在的目标区域与在后视频帧中目标B所在的目标区域的交并比为0.87,目标A与在后视频帧中目标C所在的目标区域的交并比为0.9,目标A与在后视频帧中目标D所在的目标区域的交并比为0.4。在匹配条件是交并最大时,A与C匹配。在匹配条件是交并比与1的差值小于0.2时,A与B、A与C都匹配。
在一个实施例中,基于第二目标位置信息以及更新后的第一目标位置信息对视频帧和在后视频帧中的目标进行匹配之后,方法还包括:基于匈牙利匹配算法对匹配结果进行调整,得到最终的匹配结果;根据匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果包括:根据最终的匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
由于计算机设备基于第一目标位置信息和第二目标位置信息对视频帧和在后视频帧中的目标进行匹配得到的匹配结果可能不准确,或者将视频帧中的目标和多个在后视频帧中目标进行了匹配。所以计算机设备基于匈牙利匹配算法对匹配结果进行调整,使调整后的匹配结果更加准确。
在一个实施例中,如图7所示,计算机设备根据匹配结果获得对视频帧中的目标进行跟踪的跟踪结果包括如下步骤:
S702,若根据匹配结果确定视频帧中的目标与在后视频帧中的目标不匹配时,则确定视频帧中的目标被遮挡或移出目标环境。
S704,若根据匹配结果确定视频帧中的目标出现于在后视频帧中,则在在后视频帧中对目标进行标记。
S706,为新目标分配新的标识。
如果对于视频帧中的目标,计算机设备未于在后视频帧中找到匹配的目标,则说明该视频帧中的目标被遮挡或者已经移出目标环境。如果对于视频帧中的目标,计算机设备于在后视频帧中找到了匹配的目标,则确定视频帧中的目标出现于在后视频帧中,并在后视频帧中对该目标进行标记。计算机设备通过对在后视频帧中目标进行标记使通过标记可以获知视频帧中目标和在后视频帧中目标的关系。例如,对于视频帧中和在后视频帧中匹配的目标,计算机设备标记相同的标记。
在一个实施例中,第一目标信息存储于存储器;方法还包括:当计算机设备获得在在后视频帧之后的预设时间内所采集的至少一个目标视频帧时,若被遮挡或移出目标环境的目标未出现于至少一个目标视频帧,则将第一目标信息删除。
计算机设备检测被遮挡或者被移出目标环境的目标是否出现于后续获取的目标视频帧中,如果被遮挡或移出目标环境的目标出现于至少一个目标视频帧,则在该目标视频帧中对重新出现的目标进行标记。如果被遮挡或移出目标环境的目标未出现于至少一个目标视频帧中,则将第一目标信息删除。
计算机设备在在后视频帧之后的预设时间内所采集目标视频帧中继续对被遮挡或移出目标环境的目标进行跟踪,可以防止将之前已经出现过,并再次出现的目标当做出现的新目标进行处理。
应该理解的是,虽然图2、4、5、7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、4、5、7中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种目标跟踪装置,包括:获取模块802、目标识别模块804、匹配模块806和获得模块808,其中:
获取模块802,用于获取对目标环境进行采集所得的视频帧;
目标识别模块804,用于对视频帧进行目标识别,得到第一目标信息;
目标识别模块804,还用于当获得对目标环境进行采集所得的在后视频帧时,对在后视频帧进行目标识别,得到第二目标信息;在后视频帧是在视频帧之后所采集的视频帧;
匹配模块806,用于根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配,得到匹配结果;
获得模块808,用于根据匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
上述实施例中,计算机设备获取对目标环境进行采集所得的视频帧,然后对视频帧进行目标识别,得到第一目标信息。计算机设备继续获取对目标环境进行采集所得的视频帧,当获得在视频帧之后采集的在后视频帧时,对在后视频帧进行目标识别,得到第二目标信息。服务器基于第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配。由于计算机设备在对在后视频帧进行目标识别时,不仅可以识别出视频帧中已经出现的目标,而且可以识别出视频帧中未出现的目标,并且得到的第二目标信息中包括新出现的目标所对应的目标信息。所以计算机设备在基于第一目标信息和第二目标信息对视频帧和在后视频帧中的目标进行匹配时,可以根据匹配结果确定在后视频帧中新出现的目标并获得新目标的位置信息。
在一个实施例中,第一目标信息包括第一目标类型和第一目标置信值;第二目标信息包括第二目标类型和第二目标置信值;如图9所示,装置还包括:
删除模块810,用于在第一目标信息中删除第一目标置信值低于第一置信阈值的目标信息,及在第二目标信息中删除第二目标置信值低于第二置信阈值的目标信息;
确定模块812,用于在视频帧和在后视频帧中,根据第一目标类型和第二目标类型确定类型相同的目标;
匹配模块806,还用于:
根据删除处理后所得的第二目标信息和第一目标信息,对视频帧和在后视频帧中相同类型的目标进行匹配。
在一个实施例中,第一目标信息包括第一目标位置信息;第二目标信息包括第二目标位置信息;装置还包括:
运动预测模块814,用于对视频帧中的目标进行运动预测;
更新模块816,用于基于运动预测的结果对第一目标位置信息进行更新;
匹配模块806,还用于:
基于第二目标位置信息以及更新后的第一目标位置信息对视频帧和在后视频帧中的目标进行匹配。
在一个实施例中,装置还包括:
调整模块818,用于基于匈牙利匹配算法对匹配结果进行调整,得到最终的匹配结果;
获得模块808,还用于:
根据最终的匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,获得模块808,还用于:
若根据匹配结果确定视频帧中的目标与在后视频帧中的目标不匹配时,则确定视频帧中的目标被遮挡或移出目标环境;
若根据匹配结果确定视频帧中的目标出现于在后视频帧中,则在在后视频帧中对目标进行标记;
为新目标分配新的标识。
在一个实施例中,第一目标信息存储于存储器;
删除模块810,还用于当获得在在后视频帧之后的预设时间内所采集的至少一个目标视频帧时,若被遮挡或移出目标环境的目标未出现于至少一个目标视频帧,则将第一目标信息删除。
关于目标跟踪装置的具体限定可以参见上文中对于目标跟踪方法的限定,在此不再赘述。上述目标跟踪装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储目标跟踪数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种目标跟踪方法。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图11所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种目标跟踪方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图10、11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取对目标环境进行采集所得的视频帧;对视频帧进行目标识别,得到第一目标信息;当获得对目标环境进行采集所得的在后视频帧时,对在后视频帧进行目标识别,得到第二目标信息;在后视频帧是在视频帧之后所采集的视频帧;根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配,得到匹配结果;根据匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,第一目标信息包括第一目标类型和第一目标置信值;第二目标信息包括第二目标类型和第二目标置信值;处理器执行计算机程序时还实现以下步骤:在第一目标信息中删除第一目标置信值低于第一置信阈值的目标信息,及在第二目标信息中删除第二目标置信值低于第二置信阈值的目标信息;在视频帧和在后视频帧中,根据第一目标类型和第二目标类型确定类型相同的目标;根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配包括:根据删除处理后所得的第二目标信息和第一目标信息,对视频帧和在后视频帧中相同类型的目标进行匹配。
在一个实施例中,第一目标信息包括第一目标位置信息;第二目标信息包括第二目标位置信息;处理器执行计算机程序时还实现以下步骤:对视频帧中的目标进行运动预测;基于运动预测的结果对第一目标位置信息进行更新;根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配包括:基于第二目标位置信息以及更新后的第一目标位置信息对视频帧和在后视频帧中的目标进行匹配。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:基于匈牙利匹配算法对匹配结果进行调整,得到最终的匹配结果;根据匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果包括:根据最终的匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:若根据匹配结果确定视频帧中的目标与在后视频帧中的目标不匹配时,则确定视频帧中的目标被遮挡或移出目标环境;若根据匹配结果确定视频帧中的目标出现于在后视频帧中,则在在后视频帧中对目标进行标记;为新目标分配新的标识。
在一个实施例中,第一目标信息存储于存储器;处理器执行计算机程序时还实现以下步骤:当获得在在后视频帧之后的预设时间内所采集的至少一个目标视频帧时,若被遮挡或移出目标环境的目标未出现于至少一个目标视频帧,则将第一目标信息删除。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取对目标环境进行采集所得的视频帧;对视频帧进行目标识别,得到第一目标信息;当获得对目标环境进行采集所得的在后视频帧时,对在后视频帧进行目标识别,得到第二目标信息;在后视频帧是在视频帧之后所采集的视频帧;根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配,得到匹配结果;根据匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,第一目标信息包括第一目标类型和第一目标置信值;第二目标信息包括第二目标类型和第二目标置信值;计算机程序被处理器执行时还实现以下步骤:在第一目标信息中删除第一目标置信值低于第一置信阈值的目标信息,及在第二目标信息中删除第二目标置信值低于第二置信阈值的目标信息;在视频帧和在后视频帧中,根据第一目标类型和第二目标类型确定类型相同的目标;根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配包括:根据删除处理后所得的第二目标信息和第一目标信息,对视频帧和在后视频帧中相同类型的目标进行匹配。
在一个实施例中,第一目标信息包括第一目标位置信息;第二目标信息包括第二目标位置信息;计算机程序被处理器执行时还实现以下步骤:对视频帧中的目标进行运动预测;基于运动预测的结果对第一目标位置信息进行更新;根据第二目标信息和第一目标信息对视频帧和在后视频帧中的目标进行匹配包括:基于第二目标位置信息以及更新后的第一目标位置信息对视频帧和在后视频帧中的目标进行匹配。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:基于匈牙利匹配算法对匹配结果进行调整,得到最终的匹配结果;根据匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果包括:根据最终的匹配结果获得在后视频帧中出现的新目标的位置信息,以及获得对视频帧中的目标进行跟踪的跟踪结果。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:若根据匹配结果确定视频帧中的目标与在后视频帧中的目标不匹配时,则确定视频帧中的目标被遮挡或移出目标环境;若根据匹配结果确定视频帧中的目标出现于在后视频帧中,则在在后视频帧中对目标进行标记;为新目标分配新的标识。
在一个实施例中,第一目标信息存储于存储器;计算机程序被处理器执行时还实现以下步骤:当获得在在后视频帧之后的预设时间内所采集的至少一个目标视频帧时,若被遮挡或移出目标环境的目标未出现于至少一个目标视频帧,则将第一目标信息删除。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种目标跟踪方法,其特征在于,所述方法包括:
获取对目标环境进行采集所得的视频帧;
对所述视频帧进行目标识别,得到第一目标信息;
当获得对所述目标环境进行采集所得的在后视频帧时,对所述在后视频帧进行目标识别,得到第二目标信息;所述在后视频帧是在所述视频帧之后所采集的视频帧;
根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配,得到匹配结果;
根据所述匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果。
2.根据权利要求1所述的方法,其特征在于,所述第一目标信息包括第一目标类型和第一目标置信值;所述第二目标信息包括第二目标类型和第二目标置信值;所述方法还包括:
在所述第一目标信息中删除第一目标置信值低于第一置信阈值的目标信息,及在所述第二目标信息中删除第二目标置信值低于第二置信阈值的目标信息;
在所述视频帧和所述在后视频帧中,根据所述第一目标类型和所述第二目标类型确定类型相同的目标;
所述根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配包括:
根据删除处理后所得的所述第二目标信息和所述第一目标信息,对所述视频帧和所述在后视频帧中所述相同类型的目标进行匹配。
3.根据权利要求1所述的方法,其特征在于,所述第一目标信息包括第一目标位置信息;所述第二目标信息包括第二目标位置信息;所述方法还包括:
对所述视频帧中的目标进行运动预测;
基于所述运动预测的结果对所述第一目标位置信息进行更新;
所述根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配包括:
基于所述第二目标位置信息以及更新后的第一目标位置信息对所述视频帧和所述在后视频帧中的目标进行匹配。
4.根据权利要求3所述的方法,其特征在于,所述基于所述第二目标位置信息以及更新后的第一目标位置信息对所述视频帧和所述在后视频帧中的目标进行匹配之后,所述方法还包括:
基于匈牙利匹配算法对所述匹配结果进行调整,得到最终的匹配结果;
所述根据所述匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果包括:
根据所述最终的匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果。
5.根据权利要求1所述的方法,其特征在于,所述根据所述匹配结果获得对所述视频帧中的目标进行跟踪的跟踪结果包括:
若根据所述匹配结果确定所述视频帧中的目标与所述在后视频帧中的目标不匹配时,则确定所述视频帧中的目标被遮挡或移出所述目标环境;
若根据所述匹配结果确定所述视频帧中的目标出现于所述在后视频帧中,则在所述在后视频帧中对所述目标进行标记;
为所述新目标分配新的标识。
6.根据权利要求5所述的方法,其特征在于,所述第一目标信息存储于存储器;所述方法还包括:
当获得在所述在后视频帧之后的预设时间内所采集的至少一个目标视频帧时,若被遮挡或移出所述目标环境的目标未出现于所述至少一个目标视频帧,则将所述第一目标信息删除。
7.一种目标跟踪装置,其特征在于,所述装置包括:
获取模块,用于获取对目标环境进行采集所得的视频帧;
目标识别模块,用于对所述视频帧进行目标识别,得到第一目标信息;
所述目标识别模块模块,还用于当获得对所述目标环境进行采集所得的在后视频帧时,对所述在后视频帧进行目标识别,得到第二目标信息;所述在后视频帧是在所述视频帧之后所采集的视频帧;
匹配模块,用于根据所述第二目标信息和所述第一目标信息对所述视频帧和所述在后视频帧中的目标进行匹配,得到匹配结果;
获得模块,用于根据所述匹配结果获得所述在后视频帧中出现的新目标的位置信息,以及获得对所述视频帧中的目标进行跟踪的跟踪结果。
8.根据权利要求7所述的装置,其特征在于,所述第一目标信息包括第一目标类型和第一目标置信值;所述第二目标信息包括第二目标类型和第二目标置信值;所述装置还包括:
删除模块,用于在所述第一目标信息中删除第一目标置信值低于第一置信阈值的目标信息,及在所述第二目标信息中删除第二目标置信值低于第二置信阈值的目标信息;
确定模块,用于在所述视频帧和所述在后视频帧中,根据所述第一目标类型和所述第二目标类型确定类型相同的目标;
所述匹配模块,还用于:
根据删除处理后所得的所述第二目标信息和所述第一目标信息,对所述视频帧和所述在后视频帧中所述相同类型的目标进行匹配。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011001836.5A CN112183286A (zh) | 2020-09-22 | 2020-09-22 | 目标跟踪方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011001836.5A CN112183286A (zh) | 2020-09-22 | 2020-09-22 | 目标跟踪方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112183286A true CN112183286A (zh) | 2021-01-05 |
Family
ID=73956296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011001836.5A Pending CN112183286A (zh) | 2020-09-22 | 2020-09-22 | 目标跟踪方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183286A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102881024A (zh) * | 2012-08-24 | 2013-01-16 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
CN105141903A (zh) * | 2015-08-13 | 2015-12-09 | 中国科学院自动化研究所 | 一种基于颜色信息的在视频中进行目标检索的方法 |
CN108154118A (zh) * | 2017-12-25 | 2018-06-12 | 北京航空航天大学 | 一种基于自适应组合滤波与多级检测的目标探测系统及方法 |
CN109829435A (zh) * | 2019-01-31 | 2019-05-31 | 深圳市商汤科技有限公司 | 一种视频图像处理方法、装置及计算机可读介质 |
CN109961462A (zh) * | 2019-03-25 | 2019-07-02 | 华瑞新智科技(北京)有限公司 | 目标跟踪方法、装置和系统 |
CN110472496A (zh) * | 2019-07-08 | 2019-11-19 | 长安大学 | 一种基于目标检测与跟踪的交通视频智能分析方法 |
CN111145214A (zh) * | 2019-12-17 | 2020-05-12 | 深圳云天励飞技术有限公司 | 目标跟踪方法、装置、终端设备及介质 |
CN111210458A (zh) * | 2020-01-08 | 2020-05-29 | 北京天睿空间科技股份有限公司 | 一种基于预检测置信度的运动目标检测前跟踪方法 |
-
2020
- 2020-09-22 CN CN202011001836.5A patent/CN112183286A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102881024A (zh) * | 2012-08-24 | 2013-01-16 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
CN105141903A (zh) * | 2015-08-13 | 2015-12-09 | 中国科学院自动化研究所 | 一种基于颜色信息的在视频中进行目标检索的方法 |
CN108154118A (zh) * | 2017-12-25 | 2018-06-12 | 北京航空航天大学 | 一种基于自适应组合滤波与多级检测的目标探测系统及方法 |
CN109829435A (zh) * | 2019-01-31 | 2019-05-31 | 深圳市商汤科技有限公司 | 一种视频图像处理方法、装置及计算机可读介质 |
CN109961462A (zh) * | 2019-03-25 | 2019-07-02 | 华瑞新智科技(北京)有限公司 | 目标跟踪方法、装置和系统 |
CN110472496A (zh) * | 2019-07-08 | 2019-11-19 | 长安大学 | 一种基于目标检测与跟踪的交通视频智能分析方法 |
CN111145214A (zh) * | 2019-12-17 | 2020-05-12 | 深圳云天励飞技术有限公司 | 目标跟踪方法、装置、终端设备及介质 |
CN111210458A (zh) * | 2020-01-08 | 2020-05-29 | 北京天睿空间科技股份有限公司 | 一种基于预检测置信度的运动目标检测前跟踪方法 |
Non-Patent Citations (1)
Title |
---|
汤学猛;陈志国;傅毅;: "基于核滤波器实时运动目标的抗遮挡再跟踪", 光电工程, no. 01, pages 54 - 63 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10417503B2 (en) | Image processing apparatus and image processing method | |
CN109035299B (zh) | 目标跟踪方法、装置、计算机设备及存储介质 | |
US11455735B2 (en) | Target tracking method, device, system and non-transitory computer readable storage medium | |
CN108446585B (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN108470332B (zh) | 一种多目标跟踪方法及装置 | |
CN112288770A (zh) | 基于深度学习的视频实时多目标检测与跟踪方法和装置 | |
CN111178245A (zh) | 车道线检测方法、装置、计算机设备和存储介质 | |
CN109035295B (zh) | 多目标跟踪方法、装置、计算机设备和存储介质 | |
CN111382637B (zh) | 行人检测跟踪方法、装置、终端设备及介质 | |
KR102441053B1 (ko) | 차량의 주행차로 추정 장치 및 방법 | |
CN111539986A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN109543634B (zh) | 定位过程中的数据处理方法、装置、电子设备和存储介质 | |
CN113191180A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN113034514A (zh) | 天空区域分割方法、装置、计算机设备和存储介质 | |
CN111738033A (zh) | 基于平面分割的车辆行驶信息确定方法及装置、车载终端 | |
CN113129229A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN110598771A (zh) | 一种基于深度语义分割网络的视觉目标识别方法和装置 | |
CN117115774B (zh) | 草坪边界的识别方法、装置、设备及存储介质 | |
CN111932545A (zh) | 图像处理方法、目标计数方法及其相关装置 | |
CN112070035A (zh) | 基于视频流的目标跟踪方法、装置及存储介质 | |
CN112183286A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
WO2022206679A1 (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN112819859B (zh) | 一种应用于智慧安防的多目标跟踪方法及装置 | |
CN113762027B (zh) | 一种异常行为的识别方法、装置、设备及存储介质 | |
CN113284165A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |