CN108470353A - 一种目标跟踪方法、装置和存储介质 - Google Patents
一种目标跟踪方法、装置和存储介质 Download PDFInfo
- Publication number
- CN108470353A CN108470353A CN201810172742.0A CN201810172742A CN108470353A CN 108470353 A CN108470353 A CN 108470353A CN 201810172742 A CN201810172742 A CN 201810172742A CN 108470353 A CN108470353 A CN 108470353A
- Authority
- CN
- China
- Prior art keywords
- target
- video frame
- history
- current
- failure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种目标跟踪方法、装置和存储介质;本发明实施例对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息;根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新。采用本发明方案可以对视频中所有视频帧进行处理,即使存在漏检目标而导致关联失败,也可以通过复检找回漏检目标,从而获取目标的准确运动信息,提升目标跟踪的准确性。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种目标跟踪方法、装置和存储介质。
背景技术
目前,目标跟踪技术在无人驾驶、智能安防监控等领域有着广泛的应用。目标跟踪是对视频图像中出现的多个目标进行跟踪,得到各个目标在视频中的完整运动信息。准确的目标跟踪是分析目标行为的前提条件,比如分析出打架、斗殴、汽车变道等行为。
目前,在进行目标跟踪时,首先检测出视频的所有视频帧中出现的目标,然后采用全局目标关联算法对每一视频帧的目标进行关联,但是,一旦在某一视频帧中出现漏检目标,将会导致关联失败,此时,采用目前的目标跟踪方案会无法获取目标的准确运动信息,从而使得目标跟踪的准确性较低。
发明内容
本发明实施例提供一种目标跟踪方法、装置和存储介质,可以提升目标跟踪的准确性。
本发明实施例提供一种目标跟踪方法,包括:
对视频的当前视频帧进行目标检测,得到所述当前视频帧的目标集合;
将历史目标集合中的历史目标与所述目标集合中的当前目标进行关联,得到所述历史目标的关联结果信息,所述历史目标集合为所述当前视频帧之前历史视频帧的目标集合;
根据所述历史目标的关联结果信息确定关联失败的失败历史目标,并在所述当前视频帧中检测所述失败历史目标;
当在所述当前视频帧中检测到所述失败历史目标时,对所述失败历史目标的关联结果信息进行更新;
根据所述历史目标的当前关联结果信息,对所述历史目标对应的运动信息进行更新。
对应的,本发明实施例还提供了一种目标跟踪装置,包括:
第一检测模块,用于对视频的当前视频帧进行目标检测,得到所述当前视频帧的目标集合;
关联模块,用于将历史目标集合中的历史目标与所述目标集合中的当前目标进行关联,得到所述历史目标的关联结果信息,所述历史目标集合为所述当前视频帧之前历史视频帧的目标集合;
第二检测模块,用于根据所述历史目标的关联结果信息确定关联失败的失败历史目标,并在所述当前视频帧中检测所述失败历史目标;
第一更新模块,用于当在所述当前视频帧中检测到所述失败历史目标时,对所述失败历史目标的关联结果信息进行更新;
第二更新模块,用于根据所述历史目标的当前关联结果信息,对所述历史目标对应的运动信息进行更新。
本发明实施例对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息;根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新。采用本发明方案可以对视频中所有视频帧进行处理,即使存在漏检目标而导致关联失败,也可以通过复检找回漏检目标,从而获取目标的准确运动信息,提升目标跟踪的准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的目标跟踪系统的场景示意图;
图2a是本发明实施例提供的目标跟踪方法的第一种流程示意图;
图2b是本发明实施例中解码视频得到多个视频帧的示例图;
图2c是本发明实施例中一当前视频帧的示例图;
图2d是本发明实施例中一历史视频帧的示例图;
图2e是本发明实施例中关联结果信息的一种展现形式的示例图;
图2f是本发明实施例中一种预测目标位置区域的示意图;
图2g是本发明实施例中时间轴的示例图;
图2h是本发明实施例中另一种预测目标位置区域的示意图;
图2i是本发明实施例中更新关联结果信息的示例图;
图2j是本发明实施例中一目标的运动轨迹示例图;
图3a是本发明实施例提供的目标跟踪方法的第二种流程示意图;
图3b是本发明实施例中终端播放携带运动轨迹的监控视频的示例图;
图4是本发明实施例提供的目标跟踪装置的第一种结构示意图;
图5是本发明实施例提供的服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种目标跟踪系统,该目标跟踪系统包括本发明实施例提供的任一目标跟踪装置,该目标跟踪装置可以集成在具备存储器并安装有处理器而具有运算能力的服务器中。
请参照图1,本发明实施例提供的目标跟踪系统,包括:服务器10和终端20,服务器10与终端20通过网络30连接。其中,网络30中包括路由器、网关等等网络实体,图1中并未一一示意出。终端20可以通过有线网络或无线网络与服务器10进行信息交互,比如,终端20可以通过视频采集设备(比如监控摄像头等)采集需要进行目标跟踪的视频,并将视频通过网络30传输至服务器10;服务器10在接收到来自终端20的视频之后,对视频进行目标跟踪,得到视频中出现的所有目标的运动信息,然后将得到运动信息合成至视频中,最后将携带运动信息的视频返回至终端20。
基于上述图1所示的目标跟踪系统,服务器10可以通过网络30获取来自终端20的视频;对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息;根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新;如此往复,服务器10完成对视频中所有视频帧的处理之后,将得到视频中检测到的所有目标完整的运动信息,服务器10可以将得到运动信息合成至视频中,并将携带运动信息的视频通过网络30传输至终端20。
需要说明的是,上述图1示出的仅是实现本发明实施例的一个系统架构实例,本发明实施例并不限于上述图1所示的系统架构,基于该系统架构,提出本发明各个实施例。
在本实施例中,将从目标跟踪装置的角度进行描述,该目标跟踪装置具体可以集成在服务器中。
一种目标跟踪方法,包括:对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息;根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新。
请参照图2a,图2a是本发明实施例提供的目标跟踪方法的流程示意图,如图2a所示,该目标跟踪方法包括:
在步骤101中,对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合。
其中,为实现对视频的目标跟踪,首先获取视频的视频流数据,并对视频的视频流数据进行解码,得到对应视频的一帧一帧的视频帧。比如,请参照图2b,通过对该跟踪视频进行解码,共得到N个视频帧。
需要说明的是,当前视频帧并不用于特指某一视频帧,而是用于代指当前时刻进行目标检测的视频帧,比如,某视频包括N个视频帧,则在当前时刻对视频的第5个视频帧进行目标检测时,则该第5个视频帧即为当前视频帧;若在当前时刻对视频的第6个视频帧进行目标检测时,则该第6个视频帧即为当前视频帧。
其中,在对当前视频帧进行目标检测时,可以采用帧差法、光流法以及背景减除法等运动目标检测算法对当前视频帧进行目标检测;也可以采用基于神经网络的目标检测算法对当前视频帧进行目标检测,比如,Overfeat算法、R-CNN算法、YOLO算法以及SSD算法等。需要说明的是,本领域技术人员可以根据实际需要选取合适的目标检测算法进行目标检测,本发明实施例对此不做具体限定。
可选的,在检测得到当前视频帧的目标集合之后,生成对应目标集合中当前目标的边界框,该边界框用于框定对应的当前目标,以标记出其位置所在。
比如,请参照图2c,对当前视频帧进行目标检测,得到的目标集合将包括图2c所示的两个当前目标,即当前视频帧的图像内容中出现的两个行人,分别为目标1和目标2,同时,生成了两个边界框分别框定检测到的两个当前目标,但是,该当前视频帧中的另一行人由于被异物遮挡,导致其并未被检测出。
在步骤102中,将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息,历史目标集合为当前视频帧之前历史视频帧的目标集合。
本发明实施例中,在对当前视频帧进行目标检测,得到当前视频帧的目标集合之后,进一步将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息。其中,历史目标集合为当前视频帧之前历史视频帧的目标集合,换言之,此处的历史视频帧为此处当前视频帧的前一视频帧。
比如,请参照图2d,图2d所示为图2c所示的当前视频帧对应的历史视频帧,可以看出,由于图2d所示历史视频帧对应的时刻还未出现异物,3个行人均被检测出,得到包括目标1’、目标2’和目标3’的历史目标集合。在对历史目标集合中历史目标与目标集合中的当前目标进行关联时,具体将历史目标集合和目标集合中的“同一目标”关联,或者说,将历史视频帧和当前视频帧中的“同一行人”关联。显然的,图2c所示当前视频帧中的目标1与图2d所示历史视频帧中的目标1’为同一目标,将目标1与目标1’关联;图2c所示当前视频帧中的目标2与图2d所示历史视频帧中的目标2’为同一目标,将目标2和目标2’关联;而对于历史视频帧中的目标3’,由于当前视频帧不存在与其相同的当前目标,目标3’将关联失败;最终,得到的历史目标的关联结果信息为:目标1’与目标1关联,目标2’与目标2关联,目标3’关联失败。
此外,本发明实施例对于关联结果信息的展现形式不做具体限定,比如,请参照图2e,在本发明实施例中,采用关联矩阵的形式来表示关联结果信息,如图2e所示,为一个两行三列的关联矩阵,对应历史视频帧的历史目标集合中包括目标1’、目标2’和目标3’共3个历史目标,对应当前视频帧的目标集合中包括目标1和目标2共2个当前目标,关联矩阵中的“1”表示关联,如目标1’和目标1关联,关联矩阵中的“0”表示不关联,如目标1’和目标2不关联。
需要说明的是,对于任一历史目标,只要存在一个与其关联的当前目标,则该历史目标关联成功。
在步骤103中,根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;
其中,如上所述,关联结果信息包括了历史视频帧中检测出的历史目标与当前视频帧中各当前目标的关联结果,根据该关联结果信息即可确定出关联失败的失败历史目标。
比如,请参照图2e,示出了关联结果信息的一种展现形式,即关联矩阵,如图2e所示,为一个两行三列的关联矩阵,其中,对应历史视频帧的历史目标集合中包括目标1’、目标2’和目标3’共3个历史目标,对应当前视频帧的目标集合中包括目标1和目标2共2个当前目标,关联矩阵中的“1”表示关联,“0”表示不关联;如图2e所示,显而易见的,目标1’和目标1关联,目标2’和目标2关联,没有目标与目标3’关联,则可确定目标3’为关联失败的失败历史目标。
在确定关联失败的失败历史目标之后,进一步在当前视频中检测失败历史目标。
可具体的,在本发明实施例中,在当前视频帧中检测失败历史目标,可以包括以下步骤:
预测失败历史目标在当前视频帧中的目标位置区域;
获取历史视频帧中失败历史目标的特征信息;
根据获取到的特征信息在预测的目标位置区域中检测失败历史目标。
需要说明的是,对于关联的历史目标和当前目标,其实质上为同一“目标”,比如,请结合参照图2c和图2d,历史视频帧中的历史目标“目标1’”和当前视频帧中的当前目标“目标1”关联,目标1和目标1’均对应为图2c和图2d左侧所示的同一行人,目标1和目标1’的唯一区别也即是该行人因运动而导致的位置区别,也即是说,目标1和目标1’实质为同一目标。
可具体的,在一个可选的实施方式中,预测失败历史目标在当前视频帧中的目标位置区域,可以包括以下步骤:
确定失败历史目标在历史视频帧中的位置区域;
将确定的位置区域映射到当前视频帧中,作为失败历史目标的候选位置区域;
按照预设比例扩大候选位置区域;
将扩大后的候选位置区域作为目标位置区域。
需要说明的是,由于当前视频帧和历史视频帧的间隔时长通常较短,同一目标在当前视频帧和历史视频帧中的位置通常不会有太大的变化。因此,根据这一特性,本发明实施例将失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,并按照一定比例进行扩大,从而在当前视频帧中的扩大后位置区域内针对性的检测失败历史目标。
具体的,首先确定出失败历史目标在历史视频帧中的位置区域,由于在进行目标检测时,还同时得到了对应的边界框,因此,可将对应失败历史目标的边界框所占的区域作为失败历史目标的位置区域。
比如,请结合参照图2c和图2d,图2d所示历史视频帧中的中间行人由于异物遮挡,导致其在当前视频帧未被检出,此时会将对应该中间行人的历史目标“目标3’”确定为失败历史目标;在确定目标3’在历史视频帧中的位置区域时,可以直接将对应目标3’的边界框所占的区域作为目标3’的位置区域。
之后,将确定失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的候选位置区域,并按照预设比例扩大候选位置区域,将扩大后的候选位置区域作为目标区域。
其中,对于确定的失败历史目标在历史视频帧中的位置区域,可以根据该位置区域的四个顶点的坐标,直接将该位置区域有历史视频帧中映射至当前视频帧中,得到失败历史目标在当前视频帧中的候选位置区域。
其中,对于预设比例的具体设置,本发明实施例不做具体限制,可由本领域技术人员根据实际需要进行具体设置,比如,本发明实施例中设置预设比例为“2”,也即是将候选位置区域扩大为两倍。
比如,请参照图2f,将历史视频帧中失败历史目标“目标3’”的位置区域映射到当前视频帧中,得到图2f中虚线框所示的候选位置区域,将该候选位置区域按照2倍比例扩大后,得到图2f中候选位置区域外围的实线框所示的目标位置区域。
可具体的,在另一个可选的实施方式中,预测失败历史目标在当前视频帧中的目标位置区域,还可以包括以下步骤:
确定失败历史目标在当前视频帧之前的连续多个视频帧中的位置区域;
根据确定的多个位置区域获取历史失败目标的速度信息;
将失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的初始位置区域;
根据确定的速度信息对初始位置区域进行移动,并将移动后的初始位置区域作为前述目标位置区域。
需要说明的是,由于当前视频帧和历史视频帧的间隔时长通常较短,历史视频帧中的历史目标通常会维持其运动趋势,因此,可以根据运动趋势来预测失败历史目标在当前视频帧中的目标位置区域。
具体的,首先,确定失败历史目标在当前视频帧之前的连续多个视频帧(包括前述的历史视频帧)中的位置区域,其中,至少确定失败历史目标在当前视频帧之前的连续3个视频帧中的位置区域。
之后,根据确定的多个位置区域获取历史失败目标的速度信息,其中,获取的速度信息至少包括失败历史目标的加速度,以及失败历史目标在之前的连续多个视频帧中的速度。比如,确定了失败历史目标在当前视频帧之前的连续3个视频帧中的位置区域,则根据这3个位置区域确定历史失败目标的加速度,以及历史失败目标在之前连续3个视频帧中各视频帧的速度。
其中,以当前视频帧之前连续3个视频帧为例,按照以下公式获取历史失败目标的速度信息:
其中,Lt-1、Lt-2和Lt-3分别表示当前视频帧之前第一个视频帧(即历史视频帧,以后即为t-1帧)中失败历史目标所在的位置区域的中心位置、之前第二个视频帧(以后记为t-2帧)中失败历史目标所在的位置区域的中心位置和之前第三个视频帧(以后记为t-3帧)中失败历史目标所在的位置区域的中心位置,比如,请参照图2g所示的时间轴,t时刻对应当前视频帧,t-1时刻对应t-1帧(即历史视频帧),t-2时刻对应t-2帧,t-3时刻对应t-3帧;Vt-1、Vt-2和Vt-3分别表示失败历史目标在t-1帧中的速度、失败历史目标在t-2帧中的速度和失败历史目标在t-3帧中的速度;t表示两个视频帧之间的时间间隔;a表示失败历史目标的加速度。以上公式中,在确定失败历史目标在当前视频帧之前的连续多个视频帧中的位置区域之后,即可确定Lt-1、Lt-2和Lt-3的具体值,而帧间时间间隔为已知量(根据视频的帧率确定),可求解得到失败历史目标在当前视频帧之前连续3个视频帧中的速度Vt-1、Vt-2和Vt-3,以及求解得到失败历史目标的加速度。
之后,将失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的初始位置区域,具体可参照上述关于候选位置区域的映射方式,此处不再赘述。
之后,根据失败历史目标的速度信息对初始位置区域进行移动,并将移动后的初始位置区域作为目标位置区域。
具体的,按照以下公式对初始位置区域进行移动:
其中,Lt表示移动后的初始位置区域的中心位置,Lt-1表示失败历史目标在历史视频帧(即t-1帧)中所在位置区域的中心位置,Vt-1表示失败历史目标在历史视频帧中的速度,a表示失败历史目标的加速度,t表示两个视频帧之间的时间间隔,由于Lt-1、Vt-1和a求解得出,t为已知量。
在完成对初始位置区域的移动之后,即可将移动后的初始位置区域作为失败历史目标在当前视频帧中的目标位置区域。比如,请参照图2h,将图2h上部所示历史视频帧中失败历史目标“目标3’”的位置区域映射到当前视频帧中,得到图2h中部当前视频帧中虚线框所示的初始位置区域,将该初始位置区域进行移动,得到图2h下部当前视频帧中实线框所示的目标位置区域。
本发明实施例中,在预测得到失败历史目标在当前视频帧中的目标位置区域之后,进一步获取历史视频帧中失败历史目标的特征信息。
其中,可以利用在线学习算法获取历史视频帧中失败历史目标的特征信息。
比如,可以通过流形学习算法获取历史视频帧中失败历史目标的特征。流形有着严格的数学定义,简而言之,就是非线性的空间,例如,球面就是一种最常见的流形。流形学习算法就是将数据之间的关系看做是非线性的,就像这些数据分布在一个流形上,并采用某种方法将数据降维,并在降维过程中保持数据之间的非线性关系。
又比如,可以通过Boosting学习算法获取历史视频帧中失败历史目标的特征信息。Boosting学习算法通过构造一个预测函数系列,然后以一定的方式构造的预测函数系列组合成一个预测函数。Boosting学习算法实质为一种框架算法,主要是通过对样本集的操作获得样本子集,然后采用弱分类算法在样本子集上训练生成一系列的基分类器,也即是将其他的弱分类算法作为基分类算法放于Boosting框架中,通过Boosting框架对训练样本集的操作,得到不同的训练样本子集,用该样本子集去训练生成基分类器,每得到一个样本集就用该基分类算法在该样本集上产生一个基分类器,如此循环多次之后,便会得到多个基分类器,最后采用Boosting框架算法将多个基分类器进行加权融合,得到一个结果分类器。简而言之,其核心就是通过对一系列弱学习机的联合以得到期望的强学习机。
又比如,可以协同流形学习算法和Boosting学习算法来获取历史视频帧中失败历史目标的特征信息。具体的,通过流形学习算法获取历史视频帧中失败历史目标的第一特征信息;通过Boosting学校算法获取历史视频帧中失败历史目标的第二特征信息;对第一特征信息和第二特征信息进行加权求和,得到历史视频帧中失败历史目标的特征信息。其中,对于第一特征信息和第二特征信息各自对应的权重,本申请实施例中不做具体限制,可由本领域技术人员根据实际需要进行设置。
此外,本领域技术人员还可以根据实际需要采用本发明未例出的在线学习算法来获取历史视频帧中失败历史目标的特征信息,本发明实施例对此不做具体限制。
本发明实施例中,在获取到历史视频帧中失败历史目标的特征信息之后,进一步根据获取到的特征信息在当前视频帧中预测的目标位置区域内检测失败历史目标。
其中,可以基于获取历史视频帧中失败历史目标的特征信息相同的在线学习算法,在目标位置区域内搜索目标图像,目标图像和失败历史目标的特征信息的相似度达到预设值,若搜索到这样的目标图像,则将搜索到的该目标图像作为当前视频帧中的“失败历史目标”,也即是在当前视频帧中检测到失败历史目标。
可选的,在一实施例中,预测失败历史目标在当前视频帧中的目标位置区域之后,还包括:
对目标位置区域内的图像进行目标检测;
将目标位置区域内检测得到的当前目标作为失败历史目标。
其中,对目标检测区域内的图像进行目标检测可以参照以上描述的第一次检测方式进行检测,也即是对当前视频帧进行目标检测的方式,具体可参照以上相关描述,此处不再赘述。
当在目标区域内检测得到一个当前目标(同时得到对应该当前目标的边界框)时,由于当前视频帧和历史视频帧的间隔时长通常较短,同一目标在当前视频帧和历史视频帧中的位置通常不会有太大的变化,即可将目标区域内检测得到的当前目标作为失败历史目标。
可选的,在一实施例中,将目标位置区域内检测得到的当前目标作为失败历史目标之前,还包括:
获取目标位置区域内检测得到的当前目标与目标集合中各当前目标的重合度;
在获取到的各重合度均小于预设重合度时,将目标位置区域内检测得到的当前目标作为失败历史目标。
其中,将目标区域内检测得到的当前目标记为目标A,将目标集合中的当前目标记为目标B,则按照以下公式计算目标A和目标B的重合度:
其中,IOU(A,B)表示目标A和目标B的重合度,|A∩B|表示目标A的边界框和目标B的边界框相交区域的面积,|A∪B|表示目标A的边界框和目标B的边界框相并区域的面积。
按照以上公式可以计算出目标位置区域内检测得到的当前目标与目标集合中各当前目标的重合度,之后,判断计算出的各重合度中是否小于预设重合度,若是,则说明目标位置区域内检测得到的当前目标与目标集合中各当前目标均不同,此时,将目标位置区域内检测得到的当前目标作为失败历史目标,也即是在当前视频帧检测到失败历史目标。
在步骤104中,当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;
当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新,也即是将历史视频帧和当前视频帧中的同一“失败历史目标”关联。比如,在采用关联矩阵形式的关联结果信息时,请参照图2i,图2i上侧所示为更新前的关联矩阵,目标1’、目标2’和目标3’为对应历史视频帧的历史目标集合中的历史目标,目标1和目标2为对应当前视频帧的目标集合中的当前目标,此时,目标1’和目标1关联,目标2’和目标2关联,目标3’为失败历史目标;在执行以上描述的“复检”操作之后,在当前视频帧中检测到失败历史目标,记为目标3;对关联矩阵进行更新,得到图2i下侧所示的更新后的关联矩阵,此时,目标1’和目标1关联,目标2’和目标2关联,目标3’和目标3关联。
在步骤105中,根据历史视频帧中历史目标的当前关联结果信息,对历史视频帧中的历史目标对应的运动信息进行更新。
其中,运动信息为运动轨迹,可具体的,在一实施例中,根据历史视频帧中历史目标的当前关联结果信息,对历史视频帧中的历史目标对应的运动信息进行更新,包括:
根据历史目标的当前关联结果信息获取历史目标的当前运动轨迹;
将当前运动轨迹合并到历史目标对应的运动轨迹中。
其中,历史目标对应的运动轨迹即为历史目标的历史运动轨迹,具体为历史目标到前述历史视频帧为止的运动轨迹。在获取历史目标的当前运动轨迹时,具体将历史视频帧与当前视频帧中关联的当前目标连接,得到历史目标由历史视频帧到当前视频帧的轨迹片段,作为历史目标的当前运动轨迹;之后,将历史目标的当前运动轨迹合并至历史运动轨迹上,从而得到历史目标到当前视频帧为止的运动轨迹。
比如,在将视频的第一个视频帧作为当前视频帧进行目标跟踪时,由于不存在对应第一个视频帧的历史视频帧,此时将得不到第一个视频帧中目标的关联结果信息;在将第二个视频帧作为当前视频帧进行目标跟踪时,此时第一个视频帧为对应第二个视频帧的历史视频帧,将得到当前视频帧(第二个视频帧)中当前目标的关联结果信息,以及得到历史视频帧(第一个视频帧)中历史目标的关联结果信息,根据关联结果信息即可将当前视频帧(第二个视频帧)和历史视频帧(第一个视频帧)中的同一目标(即相互关联的历史目标和当前目标)进行连接,得到该同一目标的轨迹片段,对于历史视频帧(第一个视频帧)中的历史目标而言,此时并不存在历史运动轨迹;在将第三个视频帧作为当前视频帧进行目标跟踪时,此时第二个视频帧为对应第三个视频帧的历史视频帧,将得到当前视频帧(第三个视频帧)中当前目标的关联结果信息,以及得到历史视频帧(第二个视频帧)中历史目标的关联结果信息,根据关联结果信息即可将当前视频帧(第三个视频帧)和历史视频帧(第二个视频帧)中的同一目标(即相互关联的历史目标和当前目标)进行连接,得到该同一目标的轨迹片段,对于历史视频帧(第二个视频帧)中的历史目标而言,上一次得到轨迹片段即为其对应的历史运动轨迹,此时将当前得到的轨迹片段(即当前运动轨迹)合并到历史运动轨迹中,合并后的运动轨迹即为到当前视频帧(第三个视频帧)为止的运动轨迹,如此重复,在完成对所有视频帧的处理之后,将最终得到视频中出现的所有目标的完整运动轨迹。
可选的,在一实施例中,当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新之后,还包括:
将历史目标的当前关联结果信息作为历史视频帧的关联结果信息,并返回对当前视频帧进行目标检测的步骤,直至得到视频中除最后一视频帧之外各视频帧的关联结果信息;
根据各关联结果信息,获取对应多个不同目标的运动轨迹片段;
根据多个运动轨迹片段获取对应多个不同目标的运动轨迹。
其中,在完成对失败历史目标的关联结果信息的更新之后,将历史目标的当前关联结果信息作为历史视频帧的关联结果信息,并返回对当前视频帧进行目标检测的步骤,直到完成对视频中所有视频帧的处理,得到视频中各视频帧的关联结果信息。需要说明的是,此时的关联结果信息用于描述一视频帧中检测到的目标与其后一视频帧中检测到的目标的关联关系。
比如,在对视频中第三个视频帧进行目标检测,并最终得到第三个视频帧的关联结果信息之后,继续对下一个视频帧(即第四个视频帧)进行目标检测,并最终得到第四个视频帧的关联结果信息,之后继续对下一个视频帧(即第五个视频帧)进行目标检测……,如此往复,直至得到视频中所有视频帧的关联结果信息。
之后,即可根据各关联结果信息,将相邻的任意两个视频帧中的同一目标(即相互关联的两个目标)进行连接,从而得到对应多个不同目标的运动轨迹片段。
之后,根据多个运动轨迹片段获取对应多个不同目标的运动轨迹片段,也即是将多个运动轨迹片段中对应同一目标的运动轨迹片段进行合并,可具体的,在一实施例中,根据多个运动轨迹片段获取对应多个不同目标的运动轨迹,包括:
获取任意两条运动轨迹片段间的第一相似度;
将第一相似度达到预设相似度的两条运动轨迹片段合并为一条新的运动轨迹片段,并返回执行获取任意两条运动轨迹片段间的第一相似度的步骤,直至任意两条运动轨迹片段间的第一相似度均未达到预设相似度;
将当前的多条运动轨迹片段作为对应多个不同目标的运动轨迹。
其中,预设相似度用于描述两条运动轨迹片段是否对应同一目标(或者说两条运动轨迹片段对应的目标相同),对于该预设相似度的具体取值,可由本领域技术人员根据实际需要进行设置。此外,将运动轨迹片段间的相似度记为第一相似度。
在获取得到所有运动轨迹片段中任意两条运动轨迹片段的第一相似度之后,若存在第一相似度达到预设相似度的两条运动轨迹片段,则认为这两条运动轨迹片段对应同一目标,此时将这两条运动轨迹片段合并为一条新的运动轨迹片段。
之后,返回获取任意两条运动轨迹片段间的第一相似度的步骤,直至任意两条运动轨迹片段间的第一相似度均未达到预设相似度,也即是最终将对应同一目标的所有运动轨迹片段合为一条运动轨迹片段。
最后,由于已经不存在能够合并的两条轨迹片段,此时将当前存在的多条运动轨迹片段分别作为其各自对应的目标的运动轨迹,从而得到对应多个不同目标的运动轨迹,也即是视频中出现过的所有目标的完整的运动轨迹(即目标从出现到消失的运动轨迹)。比如,请参照图2j,图2j上侧示出了一目标在不同视频帧中的位置,图2j下侧示出了该目标的完整的运动轨迹。
可具体的,在一实施例中,获取任意两条运动轨迹片段间的第一相似度,包括:
任意选取两条运动轨迹片段;
提取选取的两条运动轨迹片段中一运动轨迹片段上第一预设个数的目标;
提取选取的两条运动轨迹片段中另一运动轨迹片段上第二预设个数的目标;
获取不同运动轨迹片段上提取的任意两个目标间的第二相似度,得到多个第二相似度;
将获取到的多个第二相似度的平均相似度作为选取的两条运动轨迹片段间的第一相似度。
其中,将两个目标间的相似度记为第二相似度,对于第一预设个数和第二预设个数的具体取值,可由本领域技术人员根据实际需要进行设置,第一预设个数可以和第二预设个数相等,也可以和第二预设个数不等。比如,在选取到两条运动轨迹片段之后,从其中一条运动轨迹片段上提取3个目标,从另一条运动轨迹片段上提取4个目标,这样将共获取到3*4=12个第二相似度;又比如,在选取到两条运动轨迹片段之后,分别从两条运动轨迹片段上提取3个目标,这样将共获取到3*3=9个第二相似度。
可具体的,获取不同运动轨迹片段上提取的任意两个目标间的第二相似度,包括:
分别获取两个目标的多维图像特征,得到第一图像特征集合和第二图像特征集合;
获取第一图像特征集合与第二图像特征集合的距离;
将获取距离作为两个目标间的第二相似度。
其中,对于获取的图像特征的类型,此处不做具体限制,可由本领域技术人员根据实际需要进行选取,比如,可以获取目标的HOG(Histogram of Oriented Gradient,方向梯度直方图)特征。
在分别获取到两个目标的多维图像特征,得到第一图像特征集合和第二图像集合之后,获取第一图像特征集合与第二图像特征集合的距离,并将获取到的距离作为两个目标间的第二相似度。其中,可由本领域技术人员根据实际需要选取任意一种特征距离(比如欧氏距离、曼哈顿距离、切比雪夫距离等等)来衡量两个图像特征集合之间的距离。
比如,可以获取第一图像特征集合和第二图像特征集合的余弦距离,具体参照以下公式:
其中,e表示第一图像特征集合和第二图像特征集合的余弦距离,f表示第一图像特征集合,N表示第一图像特征集合和第二图像特征集合的维度(两个图像特征集合的维度相同),fi表示第一图像特征集合中第i维度的图像特征,gi表示第二图像特征集合中第i维度的图像特征。
由上可知,本发明实施例提供的目标跟踪方法,对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息;根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新。采用本发明方案可以对视频中所有视频帧进行处理,即使存在漏检目标而导致关联失败,也可以通过复检找回漏检目标,从而获取目标的准确运动信息,提升目标跟踪的准确性。
在一实施例中,以需要进行目标跟踪的视频为监控摄像头拍摄的监控视频为例,来详细介绍本发明提供的目标跟踪方法。
在本实施例中,将从目标跟踪系统的角度进行描述,其中该目标跟踪系统包括终端、网络和服务器,终端与监控摄像头连接,对监控摄像头进行控制,并接收来自监控摄像头的视频图像,编码得到监控视频,之后,将编码得到的监控视频作为需要进行目标跟踪的视频通过网络传输至服务器;服务器对来自终端的监控视频进行目标跟踪,得到监控视频中出现的所有目标的完整的运动轨迹(即目标从出现到消失的运动轨迹),然后将得到运动轨迹合成至监控视频中,最后将携带运动轨迹的监控视频返回至终端。
具体的,请参照图3a,该目标跟踪方法的具体流程如下:
在步骤201中,终端通过监控摄像头获取监控视频。
其中,终端可以同时连接多个监控摄像头,在获取监控视频时,可以根据跟踪需求选择一个监控摄像头获取监控视频。
在步骤202中,终端将获取的监控视频通过网络传输至服务器。
其中,网络包括路由器、网关等等网络实体,用于实现终端和服务器之间的信息交互。
在步骤S203中,服务器对监控视频的当前视频帧进行目标检测,得到当前视频帧的目标集合。
其中,为实现对监控视频的目标跟踪,首先获取监控视频的视频流数据,并对监控视频的视频流数据进行解码,得到对应监控视频的一帧一帧的视频帧。
需要说明的是,当前视频帧并不用于特指某一视频帧,而是用于代指当前时刻进行目标检测的视频帧,比如,某监控视频包括N个视频帧,则在当前时刻对监控视频的第5个视频帧进行目标检测时,则该第5个视频帧即为当前视频帧;若在当前时刻对监控视频的第6个视频帧进行目标检测时,则该第6个视频帧即为当前视频帧。
其中,在对当前视频帧进行目标检测时,可以采用帧差法、光流法以及背景减除法等运动目标检测算法对当前视频帧进行目标检测;也可以采用基于神经网络的目标检测算法对当前视频帧进行目标检测,比如,Overfeat算法、R-CNN算法、YOLO算法以及SSD算法等。需要说明的是,本领域技术人员可以根据实际需要选取合适的目标检测算法进行目标检测,本发明实施例对此不做具体限定。
可选的,在检测得到当前视频帧的目标集合之后,生成对应目标集合中当前目标的边界框,该边界框用于框定对应的当前目标,以标记出其位置所在。
比如,请参照图2c,对当前视频帧进行目标检测,得到的目标集合将包括图2c所示的两个当前目标,即当前视频帧的图像内容中出现的两个行人,分别为目标1和目标2,同时,生成了两个边界框分别框定检测到的两个当前目标,但是,该当前视频帧中的另一行人由于被异物遮挡,导致其并未被检测出。
在步骤S204中,服务器将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息,历史目标集合为当前视频帧之前历史视频帧的目标集合。
本发明实施例中,在对当前视频帧进行目标检测,得到当前视频帧的目标集合之后,进一步将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息。其中,历史目标集合为当前视频帧之前历史视频帧的目标集合,换言之,此处的历史视频帧为此处当前视频帧的前一视频帧。
比如,请参照图2d,图2d所示为图2c所示的当前视频帧对应的历史视频帧,可以看出,由于图2d所示历史视频帧对应的时刻还未出现异物,3个行人均被检测出,得到包括目标1’、目标2’和目标3’的历史目标集合。在对历史目标集合中历史目标与目标集合中的当前目标进行关联时,具体将历史目标集合和目标集合中的“同一目标”关联,或者说,将历史视频帧和当前视频帧中的“同一行人”关联。显然的,图2c所示当前视频帧中的目标1与图2d所示历史视频帧中的目标1’为同一目标,将目标1与目标1’关联;图2c所示当前视频帧中的目标2与图2d所示历史视频帧中的目标2’为同一目标,将目标2和目标2’关联;而对于历史视频帧中的目标3’,由于当前视频帧不存在与其相同的当前目标,目标3’将关联失败;最终,得到的历史目标的关联结果信息为:目标1’与目标1关联,目标2’与目标2关联,目标3’关联失败。
此外,本发明实施例对于关联结果信息的展现形式不做具体限定,比如,请参照图2e,在本发明实施例中,采用关联矩阵的形式来表示关联结果信息,如图2e所示,为一个两行三列的关联矩阵,对应历史视频帧的历史目标集合中包括目标1’、目标2’和目标3’共3个历史目标,对应当前视频帧的目标集合中包括目标1和目标2共2个当前目标,关联矩阵中的“1”表示关联,如目标1’和目标1关联,关联矩阵中的“0”表示不关联,如目标1’和目标2不关联。
需要说明的是,对于任一历史目标,只要存在一个与其关联的当前目标,则该历史目标关联成功。
在步骤S205中,服务器根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标。
其中,如上所述,关联结果信息包括了历史视频帧中检测出的历史目标与当前视频帧中各当前目标的关联结果,根据该关联结果信息即可确定出关联失败的失败历史目标。
比如,请参照图2e,示出了关联结果信息的一种展现形式,即关联矩阵,如图2e所示,为一个两行三列的关联矩阵,其中,对应历史视频帧的历史目标集合中包括目标1’、目标2’和目标3’共3个历史目标,对应当前视频帧的目标集合中包括目标1和目标2共2个当前目标,关联矩阵中的“1”表示关联,“0”表示不关联;如图2e所示,显而易见的,目标1’和目标1关联,目标2’和目标2关联,没有目标与目标3’关联,则可确定目标3’为关联失败的失败历史目标。
在确定关联失败的失败历史目标之后,进一步在当前视频中检测失败历史目标。
可具体的,在本发明实施例中,在当前视频帧中检测失败历史目标,包括以下步骤:
预测失败历史目标在当前视频帧中的目标位置区域;
获取历史视频帧中失败历史目标的特征信息;
根据获取到的特征信息在预测的目标位置区域中检测失败历史目标。
需要说明的是,对于关联的历史目标和当前目标,其实质上为同一“目标”,比如,请结合参照图2c和图2d,历史视频帧中的历史目标“目标1’”和当前视频帧中的当前目标“目标1”关联,目标1和目标1’均对应为图2c和图2d左侧所示的同一行人,目标1和目标1’的唯一区别也即是该行人因运动而导致的位置区别,也即是说,目标1和目标1’实质为同一目标。
在一个可选的实施方式中,预测失败历史目标在当前视频帧中的目标位置区域,可以包括以下步骤:
确定失败历史目标在历史视频帧中的位置区域;
将确定的位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的候选位置区域;
按照预设比例扩大候选位置区域;
将扩大后的候选位置区域作为目标位置区域。
需要说明的是,由于当前视频帧和历史视频帧的间隔时长通常较短,同一目标在当前视频帧和历史视频帧中的位置通常不会有太大的变化。因此,根据这一特性,本发明实施例将失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,并按照一定比例进行扩大,从而在当前视频帧中的扩大后位置区域内针对性的检测失败历史目标。
具体的,首先确定出失败历史目标在历史视频帧中的位置区域,由于在进行目标检测时,还同时得到了对应的边界框,因此,可将对应失败历史目标的边界框所占的区域作为失败历史目标的位置区域。
比如,请结合参照图2c和图2d,图2d所示历史视频帧中的中间行人由于异物遮挡,导致其在当前视频帧未被检出,此时会将对应该中间行人的历史目标“目标3’”确定为失败历史目标;在确定目标3’在历史视频帧中的位置区域时,可以直接将对应目标3’的边界框所占的区域作为目标3’的位置区域。
之后,将确定失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的候选位置区域,并按照预设比例扩大候选位置区域,将扩大后的候选位置区域作为目标区域。
其中,对于确定的失败历史目标在历史视频帧中的位置区域,可以根据该位置区域的四个顶点的坐标,直接将该位置区域有历史视频帧中映射至当前视频帧中,作为失败历史目标在当前视频帧中的候选位置区域。
其中,对于预设比例的具体设置,本发明实施例不做具体限制,可由本领域技术人员根据实际需要进行具体设置,比如,本发明实施例中设置预设比例为“2”,也即是将候选位置区域扩大为两倍。
比如,请参照图2f,将历史视频帧中失败历史目标“目标3’”的位置区域映射到当前视频帧中,得到图2f中虚线框所示的候选位置区域,将该候选位置区域按照2倍比例扩大后,得到图2f中候选位置区域外围的实线框所示的目标位置区域。
可具体的,在另一个可选的实施方式中,预测失败历史目标在当前视频帧中的目标位置区域,还可以包括以下步骤:
确定失败历史目标在当前视频帧之前的连续多个视频帧中的位置区域;
根据确定的多个位置区域获取历史失败目标的速度信息;
将失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的初始位置区域;
根据确定的速度信息对初始位置区域进行移动,并将移动后的初始位置区域作为前述目标位置区域。
需要说明的是,由于当前视频帧和历史视频帧的间隔时长通常较短,历史视频帧中的历史目标通常会维持其运动趋势,因此,可以根据运动趋势来预测失败历史目标在当前视频帧中的目标位置区域。
具体的,首先,确定失败历史目标在当前视频帧之前的连续多个视频帧(包括前述的历史视频帧)中的位置区域,其中,至少确定失败历史目标在当前视频帧之前的连续3个视频帧中的位置区域。
之后,根据确定的多个位置区域获取历史失败目标的速度信息,其中,获取的速度信息至少包括失败历史目标的加速度,以及失败历史目标在之前的连续多个视频帧中的速度。比如,确定了失败历史目标在当前视频帧之前的连续3个视频帧中的位置区域,则根据这3个位置区域确定历史失败目标的加速度,以及历史失败目标在之前连续3个视频帧中各视频帧的速度。
其中,以当前视频帧之前连续3个视频帧为例,按照以下公式获取历史失败目标的速度信息:
其中,Lt-1、Lt-2和Lt-3分别表示当前视频帧之前第一个视频帧(即历史视频帧,以后即为t-1帧)中失败历史目标所在的位置区域的中心位置、之前第二个视频帧(以后记为t-2帧)中失败历史目标所在的位置区域的中心位置和之前第三个视频帧(以后记为t-3帧)中失败历史目标所在的位置区域的中心位置,比如,请参照图2g所示的时间轴,t时刻对应当前视频帧,t-1时刻对应t-1帧(即历史视频帧),t-2时刻对应t-2帧,t-3时刻对应t-3帧;Vt-1、Vt-2和Vt-3分别表示失败历史目标在t-1帧中的速度、失败历史目标在t-2帧中的速度和失败历史目标在t-3帧中的速度;t表示两个视频帧之间的时间间隔;a表示失败历史目标的加速度。以上公式中,在确定失败历史目标在当前视频帧之前的连续多个视频帧中的位置区域之后,即可确定Lt-1、Lt-2和Lt-3的具体值,而帧间时间间隔为已知量(根据监控视频的帧率确定),可求解得到失败历史目标在当前视频帧之前连续3个视频帧中的速度Vt-1、Vt-2和Vt-3,以及求解得到失败历史目标的加速度。
之后,将失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的初始位置区域,具体可参照上述关于候选位置区域的映射方式,此处不再赘述。
之后,根据失败历史目标的速度信息对初始位置区域进行移动,并将移动后的初始位置区域作为目标位置区域。
具体的,按照以下公式对初始位置区域进行移动:
其中,Lt表示移动后的初始位置区域的中心位置,Lt-1表示失败历史目标在历史视频帧(即t-1帧)中所在位置区域的中心位置,Vt-1表示失败历史目标在历史视频帧中的速度,a表示失败历史目标的加速度,t表示两个视频帧之间的时间间隔,由于Lt-1、Vt-1和a求解得出,t为已知量。
在完成对初始位置区域的移动之后,即可将移动后的初始位置区域作为失败历史目标在当前视频帧中的目标位置区域。比如,请参照图2h,将图2h上部所示历史视频帧中失败历史目标“目标3’”的位置区域映射到当前视频帧中,得到图2h中部当前视频帧中虚线框所示的初始位置区域,将该初始位置区域进行移动,得到图2h下部当前视频帧中实线框所示的目标位置区域。
本发明实施例中,在预测得到失败历史目标在当前视频帧中的目标位置区域之后,进一步获取历史视频帧中失败历史目标的特征信息。
其中,可以利用在线学习算法获取历史视频帧中失败历史目标的特征信息。
比如,可以通过流形学习算法获取历史视频帧中失败历史目标的特征。流形有着严格的数学定义,简而言之,就是非线性的空间,例如,球面就是一种最常见的流形。流形学习算法就是将数据之间的关系看做是非线性的,就像这些数据分布在一个流形上,并采用某种方法将数据降维,并在降维过程中保持数据之间的非线性关系。
又比如,可以通过Boosting学习算法获取历史视频帧中失败历史目标的特征信息。Boosting学习算法通过构造一个预测函数系列,然后以一定的方式构造的预测函数系列组合成一个预测函数。Boosting学习算法实质为一种框架算法,主要是通过对样本集的操作获得样本子集,然后采用弱分类算法在样本子集上训练生成一系列的基分类器,也即是将其他的弱分类算法作为基分类算法放于Boosting框架中,通过Boosting框架对训练样本集的操作,得到不同的训练样本子集,用该样本子集去训练生成基分类器,每得到一个样本集就用该基分类算法在该样本集上产生一个基分类器,如此循环多次之后,便会得到多个基分类器,最后采用Boosting框架算法将多个基分类器进行加权融合,得到一个结果分类器。简而言之,其核心就是通过对一系列弱学习机的联合以得到期望的强学习机。
又比如,可以协同流形学习算法和Boosting学习算法来获取历史视频帧中失败历史目标的特征信息。具体的,通过流形学习算法获取历史视频帧中失败历史目标的第一特征信息;通过Boosting学校算法获取历史视频帧中失败历史目标的第二特征信息;对第一特征信息和第二特征信息进行加权求和,得到历史视频帧中失败历史目标的特征信息。其中,对于第一特征信息和第二特征信息各自对应的权重,本申请实施例中不做具体限制,可由本领域技术人员根据实际需要进行设置。
此外,本领域技术人员还可以根据实际需要采用本发明未例出的在线学习算法来获取历史视频帧中失败历史目标的特征信息,本发明实施例对此不做具体限制。
本发明实施例中,在获取到历史视频帧中失败历史目标的特征信息之后,进一步根据获取到的特征信息在当前视频帧中预测的目标位置区域内检测失败历史目标。
其中,可以基于获取历史视频帧中失败历史目标的特征信息相同的在线学习算法,在目标位置区域内搜索目标图像,目标图像和失败历史目标的特征信息的相似度达到预设值,若搜索到这样的目标图像,则将搜索到的该目标图像作为当前视频帧中的“失败历史目标”,也即是在当前视频帧中检测到失败历史目标。
在一个可选的实施方式中,预测失败历史目标在当前视频帧中的目标位置区域之后,还包括:
对目标位置区域内的图像进行目标检测;
将目标位置区域内检测得到的当前目标作为失败历史目标。
其中,对目标检测区域内的图像进行目标检测可以参照以上描述的第一次检测方式进行检测,也即是对当前视频帧进行目标检测的方式,具体可参照以上相关描述,此处不再赘述。
当在目标区域内检测得到一个当前目标(同时得到对应该当前目标的边界框)时,由于当前视频帧和历史视频帧的间隔时长通常较短,同一目标在当前视频帧和历史视频帧中的位置通常不会有太大的变化,即可将目标区域内检测得到的当前目标作为失败历史目标。
在一个可选的实施方式中,将目标位置区域内检测得到的当前目标作为失败历史目标之前,还包括:
获取目标位置区域内检测得到的当前目标与目标集合中各当前目标的重合度;
在获取到的各重合度均小于预设重合度时,将目标位置区域内检测得到的当前目标作为失败历史目标。
其中,将目标区域内检测得到的当前目标记为目标A,将目标集合中的当前目标记为目标B,则按照以下公式计算目标A和目标B的重合度:
其中,IOU(A,B)表示目标A和目标B的重合度,|A∩B|表示目标A的边界框和目标B的边界框相交区域的面积,|A∪B|表示目标A的边界框和目标B的边界框相并区域的面积。
按照以上公式可以计算出目标位置区域内检测得到的当前目标与目标集合中各当前目标的重合度,之后,判断计算出的各重合度中是否小于预设重合度,若是,则说明目标位置区域内检测得到的当前目标与目标集合中各当前目标均不同,此时,将目标位置区域内检测得到的当前目标作为失败历史目标,也即是在当前视频帧检测到失败历史目标。
在步骤S206中,服务器在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新。
当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新,也即是将历史视频帧和当前视频帧中的同一“失败历史目标”关联。比如,在采用关联矩阵形式的关联结果信息时,请参照图2i,图2i上侧所示为更新前的关联矩阵,目标1’、目标2’和目标3’为对应历史视频帧的历史目标集合中的历史目标,目标1和目标2为对应当前视频帧的目标集合中的当前目标,此时,目标1’和目标1关联,目标2’和目标2关联,目标3’为失败历史目标;在执行以上描述的“复检”操作之后,在当前视频帧中检测到失败历史目标,记为目标3;对关联矩阵进行更新,得到图2i下侧所示的更新后的关联矩阵,此时,目标1’和目标1关联,目标2’和目标2关联,目标3’和目标3关联。
在步骤S207中,服务器将历史目标的当前关联结果信息作历史视频帧的关联结果信息,并返回步骤201,重复执行步骤S201至步骤S206,直至得到监控视频中除最后一视频帧之外的所有视频帧的关联结果信息。
其中,在完成对失败历史目标的关联结果信息的更新之后,将历史目标的当前关联结果信息作为历史视频帧的关联结果信息,并返回对当前视频帧进行目标检测的步骤,直到完成对监控视频中所有视频帧的处理,得到监控视频中各视频帧的关联结果信息。需要说明的是,此时的关联结果信息用于描述一视频帧中检测到的目标与其后一视频帧中检测到的目标的关联关系。
比如,在对监控视频中第三个视频帧进行目标检测,并最终得到第三个视频帧的关联结果信息之后,继续对下一个视频帧(即第四个视频帧)进行目标检测,并最终得到第四个视频帧的关联结果信息,之后继续对下一个视频帧(即第五个视频帧)进行目标检测……,如此往复,直至得到监控视频中除最后一视频帧外所有视频帧的关联结果信息。
在步骤S208中,服务器根据各关联结果信息获取对应多个不同目标的运动轨迹片段;
其中,根据获取到的各关联结果信息,将相邻的任意两个视频帧中的同一目标(即相互关联的两个目标)进行连接,从而得到对应多个不同目标的运动轨迹片段。
在步骤S209中,服务器根据多个运动轨迹片段获取对应多个不同目标的运动轨迹。
根据多个运动轨迹片段获取对应多个不同目标的运动轨迹片段,也即是将多个运动轨迹片段中对应同一目标的运动轨迹片段进行合并,可具体的,在一可选的实施方式中,根据多个运动轨迹片段获取对应多个不同目标的运动轨迹,包括:
获取任意两条运动轨迹片段间的第一相似度;
将第一相似度达到预设相似度的两条运动轨迹片段合并为一条新的运动轨迹片段,并返回执行获取任意两条运动轨迹片段间的第一相似度的步骤,直至任意两条运动轨迹片段间的第一相似度均未达到预设相似度;
将当前的多条运动轨迹片段作为对应多个不同目标的运动轨迹。
其中,预设相似度用于描述两条运动轨迹片段是否对应同一目标(或者说两条运动轨迹片段对应的目标相同),对于该预设相似度的具体取值,可由本领域技术人员根据实际需要进行设置。此外,将运动轨迹片段间的相似度记为第一相似度。
在获取得到所有运动轨迹片段中任意两条运动轨迹片段的第一相似度之后,若存在第一相似度达到预设相似度的两条运动轨迹片段,则认为这两条运动轨迹片段对应同一目标,此时将这两条运动轨迹片段合并为一条新的运动轨迹片段。
之后,返回获取任意两条运动轨迹片段间的第一相似度的步骤,直至任意两条运动轨迹片段间的第一相似度均未达到预设相似度,也即是最终将对应同一目标的所有运动轨迹片段合为一条运动轨迹片段。
最后,由于已经不存在能够合并的两条轨迹片段,此时将当前存在的多条运动轨迹片段分别作为其各自对应的目标的运动轨迹,从而得到对应多个不同目标的运动轨迹,也即是监控视频出现过的所有目标的完整的运动轨迹(即目标从出现到消失的运动轨迹)。
在步骤S210中,服务器将获取到的运动轨迹合成至监控视频中,并将携带运动轨迹的监控视频通过网络返回至终端。
其中,终端在接收到服务器返回的携带运动轨迹的监控视频之后,通过播放该监控视频即可跟随时刻变化展示目标在各时刻的运动轨迹。比如,请参照图3b,示出了某时刻对应的视频帧,如图3b所示,展示了3个行人(即目标)到某时刻为止的运动轨迹。
为了便于更好的实施本发明实施例提供的目标跟踪方法,在一实施例中还提供了一种目标跟踪装置。其中名词的含义与上述目标跟踪方法中相同,具体实现细节可以参考方法实施例中的说明。
在一实施例中,还提供了一种目标跟踪装置,如图4所示,该目标跟踪装置可以包括:第一检测模块301、关联模块302、第二检测模块303、第一更新模块304以及第二更新模块305;
第一检测模块301,用于对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;
关联模块302,用于将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息,历史目标集合为当前视频帧之前历史视频帧的目标集合;
第二检测模块303,用于根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;
第一更新模块304,用于在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;
第二更新模块305,用于根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新。
在一实施例中,第二检测模块303具体用于:
预测失败历史目标在当前视频帧中的目标位置区域;
获取失败历史目标的特征信息;
根据获取到的特征信息在目标位置区域中检测失败历史目标。
在一实施例中,第二检测模块303还用于:
确定失败历史目标在历史视频帧中的位置区域;
将确定位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的候选位置区域;
按照预设比例扩大候选位置区域;
将扩大后的候选位置区域作为目标位置区域。
在一实施例中,第二检测模块303还用于:
确定失败历史目标在当前视频帧之前的连续多个视频帧中的位置区域;
根据确定的多个位置区域获取历史失败目标的速度信息;
将失败历史目标在历史视频帧中的位置区域映射到当前视频帧中,作为失败历史目标在当前视频帧中的初始位置区域;
根据所述速度信息对所述初始位置区域进行移动;
将移动后的所述初始位置区域作为所述目标位置区域。
在一实施例中,第二检测模块303还用于:
对目标位置区域内的图像进行目标检测;
将目标位置区域内检测得到的当前目标作为失败历史目标。
在一实施例中,第二检测模块303还用于:
获取目标位置区域内检测得到的当前目标与目标集合中各当前目标的重合度;
在获取到的各重合度均小于预设重合度时,将目标位置区域内检测得到的当前目标作为失败历史目标。
在一实施例中,运动信息为运动轨迹,第二更新模块305还用于:
根据历史目标的当前关联结果信息获取历史目标的当前运动轨迹;
将当前运动轨迹与历史目标对应的运动轨迹合并。
在一实施例中,第一更新模块304还用于:
将历史目标的当前关联结果信息作为历史视频帧的关联结果信息,并指示第一检测模块301对视频的当前视频帧进行目标检测,直至得到视频中除最后一视频帧之外各视频帧的关联结果信息;
第二更新模块305还用于:
根据各视频帧的关联结果信息,获取对应多个不同目标的运动轨迹片段;
根据多个运动轨迹片段获取对应多个不同目标的运动轨迹。
在一实施例中,第二更新模块305还用于:
获取任意两条运动轨迹片段间的第一相似度;
将第一相似度达到预设相似度的两条运动轨迹片段合并为一条新的运动轨迹片段,并继续获取任意两条运动轨迹片段间的第一相似度,直至任意两条运动轨迹片段间的第一相似度均未达到预设相似度;
将当前的多条运动轨迹片段作为对应多个不同目标的运动轨迹。
在一实施例中,第二更新模块305还用于:
任意选取两条运动轨迹片段;
提取选取的两条运动轨迹片段中一运动轨迹片段上第一预设个数的目标;
提取选取的两条运动轨迹片段中另一运动轨迹片段上第二预设个数的目标;
获取不同运动轨迹片段上提取的任意两个目标间的第二相似度,得到多个第二相似度;
将获取到的多个第二相似度的平均相似度作为选取的两条运动轨迹片段间的第一相似度。
在一实施中,第二更新模块305还用于:
分别获取两个目标的多维图像特征,得到第一图像特征集合和第二图像特征集合;
获取第一图像特征集合与第二图像特征集合的距离;
将获取到的距离作为两个目标间的第二相似度。
具体实施时,以上各个模块可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个模块的具体实施可参见前面的方法实施例,在此不再赘述。
由上可知,本发明实施例目标跟踪装置采用第一检测模块301对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;关联模块302将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息;第二检测模块303根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;第一更新模块304当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;第二更新模块305根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新。采用本发明方案可以对视频中所有视频帧进行处理,即使存在漏检目标而导致关联失败,也可以通过复检找回漏检目标,从而获取目标的准确运动信息,提升目标跟踪的准确性。
参考图5,本发明实施例提供了一种服务器,可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、射频(Radio Frequency,RF)电路403、电源404、输入单元405、以及显示单元406等部件。本领域技术人员可以理解,图5中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该服务器的控制中心,利用各种接口和线路连接整个服务器的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行服务器的各种功能和处理数据,从而对服务器进行整体监控。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。
RF电路403可用于收发信息过程中,信号的接收和发送。
服务器还包括给各个部件供电的电源404(比如电池),优选的,电源可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
该服务器还可包括输入单元405,该输入单元405可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
该服务器还可包括显示单元406,该显示单元406可用于显示由用户输入的信息或提供给用户的信息以及服务器的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。具体在本实施例中,服务器中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现各种功能,如下:
对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;
将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息;
根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;
当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;
根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新。
目标跟踪方法详细步骤介绍可以参考上述方法实例的描述,这里不再赘述。
由上可知,本发明实施例服务器可以对视频的当前视频帧进行目标检测,得到当前视频帧的目标集合;将历史目标集合中的历史目标与目标集合中的当前目标进行关联,得到历史目标的关联结果信息;根据历史目标的关联结果信息确定关联失败的失败历史目标,并在当前视频帧中检测失败历史目标;当在当前视频帧中检测到失败历史目标时,对失败历史目标的关联结果信息进行更新;根据历史目标的当前关联结果信息,对历史目标对应的运动信息进行更新。采用本发明方案可以对视频中所有视频帧进行处理,即使存在漏检目标而导致关联失败,也可以通过复检找回漏检目标,从而获取目标的准确运动信息,提升目标跟踪的准确性。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,RandomAccess Memory)、磁盘或光盘等。
以上对本发明实施例所提供的一种目标跟踪方法、装置和存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (15)
1.一种目标跟踪方法,其特征在于,包括:
对视频的当前视频帧进行目标检测,得到所述当前视频帧的目标集合;
将历史目标集合中的历史目标与所述目标集合中的当前目标进行关联,得到所述历史目标的关联结果信息,所述历史目标集合为所述当前视频帧之前历史视频帧的目标集合;
根据所述历史目标的关联结果信息确定关联失败的失败历史目标,并在所述当前视频帧中检测所述失败历史目标;
当在所述当前视频帧中检测到所述失败历史目标时,对所述失败历史目标的关联结果信息进行更新;
根据所述历史目标的当前关联结果信息,对所述历史目标对应的运动信息进行更新。
2.如权利要求1所述的目标跟踪方法,其特征在于,在所述当前视频帧中检测所述失败历史目标的步骤,包括:
预测所述失败历史目标在所述当前视频帧中的目标位置区域;
获取所述失败历史目标的特征信息;
根据所述特征信息在所述目标位置区域中检测所述失败历史目标。
3.根据权利要求2所述的目标跟踪方法,其特征在于,预测所述失败历史目标在所述当前视频帧中的目标位置区域的步骤,包括:
确定所述失败历史目标在所述历史视频帧中的位置区域;
将所述位置区域映射到当前视频帧中,作为所述失败历史目标在所述当前视频帧中的候选位置区域;
按照预设比例扩大所述候选位置区域;
将扩大后的所述候选位置区域作为所述目标位置区域。
4.根据权利要求2所述的目标跟踪方法,其特征在于,预测所述失败历史目标在所述当前视频帧的目标位置区域的步骤,包括:
确定所述失败历史目标在所述当前视频帧之前的连续多个视频帧中的位置区域;
根据确定的多个位置区域获取所述历史失败目标的速度信息;
将所述失败历史目标在所述历史视频帧中的位置区域映射到所述当前视频帧中,作为所述失败历史目标所述在所述当前视频帧中的初始位置区域;
根据所述速度信息对所述初始位置区域进行移动;
将移动后的所述初始位置区域作为所述目标位置区域。
5.如权利要求2所述的目标跟踪方法,其特征在于,预测所述失败历史目标在所述当前视频帧中的目标位置区域之后,还包括:
对所述目标位置区域内的图像进行目标检测;
将所述目标位置区域内检测得到的当前目标作为所述失败历史目标。
6.如权利要求5所述的目标跟踪方法,其特征在于,将所述目标位置区域内检测得到的当前目标作为所述失败历史目标之前,还包括:
获取所述目标位置区域内检测得到的当前目标与目标集合中各当前目标的重合度;
在获取到的各重合度均小于预设重合度时,将所述目标位置区域内检测得到的当前目标作为所述失败历史目标。
7.如权利要求1-6任一项所述的目标跟踪方法,其特征在于,所述运动信息为运动轨迹,根据所述历史目标的当前关联结果信息,对所述历史目标对应的运动信息进行更新的步骤,包括:
根据所述当前关联结果信息获取所述历史目标的当前运动轨迹;
将所述当前运动轨迹与所述历史目标对应的运动轨迹合并。
8.如权利要求1-6任一项所述的目标跟踪方法,其特征在于,对所述失败历史目标的关联结果信息进行更新的步骤之后,还包括:
将所述历史目标的当前关联结果信息作为所述历史视频帧的关联结果信息,并返回对当前视频帧进行目标检测的步骤,直至得到所述视频中除最后一视频帧之外各视频帧的关联结果信息;
根据所述各视频帧的关联结果信息,获取对应多个不同目标的运动轨迹片段;
根据所述多个运动轨迹片段获取对应所述多个不同目标的运动轨迹。
9.如权利要求8所述的目标跟踪方法,其特征在于,根据所述多个运动轨迹片段获取对应所述多个不同目标的运动轨迹的步骤,包括:
获取任意两条运动轨迹片段间的第一相似度;
将第一相似度达到预设相似度的两条运动轨迹片段合并为一条新的运动轨迹片段,并返回执行获取任意两条运动轨迹片段间的第一相似度的步骤,直至任意两条运动轨迹片段间的第一相似度均未达到所述预设相似度;
将当前的多条运动轨迹片段作为对应所述多个不同目标的运动轨迹。
10.如权利要求9所述的目标跟踪方法,其特征在于,获取任意两条运动轨迹片段间的第一相似度的步骤,包括:
任意选取两条运动轨迹片段;
提取选取的两条运动轨迹片段中一运动轨迹片段上第一预设个数的目标;
提取选取的两条运动轨迹片段中另一运动轨迹片段上第二预设个数的目标;
获取不同运动轨迹片段上提取的任意两个目标间的第二相似度,得到多个第二相似度;
将获取到的多个第二相似度的平均相似度作为所述第一相似度。
11.如权利要求10所述的目标跟踪方法,其特征在于,获取不同运动轨迹片段上提取的任意两个目标间的第二相似度的步骤,包括:
分别获取所述两个目标的多维图像特征,得到第一图像特征集合和第二图像特征集合;
获取所述第一图像特征集合与所述第二图像特征集合的距离;
将所述距离作为所述两个目标间的第二相似度。
12.一种目标跟踪装置,其特征在于,包括:
第一检测模块,用于对视频的当前视频帧进行目标检测,得到所述当前视频帧的目标集合;
关联模块,用于将历史目标集合中的历史目标与所述目标集合中的当前目标进行关联,得到所述历史目标的关联结果信息,所述历史目标集合为所述当前视频帧之前历史视频帧的目标集合;
第二检测模块,用于根据所述历史目标的关联结果信息确定关联失败的失败历史目标,并在所述当前视频帧中检测所述失败历史目标;
第一更新模块,用于当在所述当前视频帧中检测到所述失败历史目标时,对所述失败历史目标的关联结果信息进行更新;
第二更新模块,用于根据所述历史目标的当前关联结果信息,对所述历史目标对应的运动信息进行更新。
13.如权利要求12所述的目标跟踪装置,其特征在于,第二检测模块具体用于:
预测所述失败历史目标在所述当前视频帧中的目标位置区域;
获取所述失败历史目标的特征信息;
根据所述特征信息在所述目标位置区域中检测所述失败历史目标。
14.如权利要求14所述的目标跟踪装置,其特征在于,在预测所述失败历史目标在所述当前视频帧中的目标位置区域之后,第二检测模块还用于:
对所述目标位置区域内的图像进行目标检测;
将所述目标位置区域内检测得到的当前目标作为所述失败历史目标。
15.一种存储介质,其特征在于,所述存储介质存储有指令,所述指令被处理器执行时实现如权利要求1-11任一项所述的目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810172742.0A CN108470353A (zh) | 2018-03-01 | 2018-03-01 | 一种目标跟踪方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810172742.0A CN108470353A (zh) | 2018-03-01 | 2018-03-01 | 一种目标跟踪方法、装置和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108470353A true CN108470353A (zh) | 2018-08-31 |
Family
ID=63264087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810172742.0A Pending CN108470353A (zh) | 2018-03-01 | 2018-03-01 | 一种目标跟踪方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108470353A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584274A (zh) * | 2018-11-22 | 2019-04-05 | 广东技术师范学院 | 一种水下动物的数量及其轨迹的检测方法及设备 |
CN109816701A (zh) * | 2019-01-17 | 2019-05-28 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法及装置、存储介质 |
CN110191324A (zh) * | 2019-06-28 | 2019-08-30 | Oppo广东移动通信有限公司 | 图像处理方法、装置、服务器及存储介质 |
CN110414443A (zh) * | 2019-07-31 | 2019-11-05 | 苏州市科远软件技术开发有限公司 | 一种目标跟踪方法、装置及枪球联动跟踪方法 |
CN110717403A (zh) * | 2019-09-16 | 2020-01-21 | 国网江西省电力有限公司电力科学研究院 | 一种人脸多目标跟踪方法 |
CN111177449A (zh) * | 2019-12-30 | 2020-05-19 | 深圳市商汤科技有限公司 | 基于图片的多维信息整合方法及相关设备 |
CN111986230A (zh) * | 2019-05-23 | 2020-11-24 | 北京地平线机器人技术研发有限公司 | 一种视频中目标物的姿态跟踪方法及装置 |
CN112131423A (zh) * | 2019-06-25 | 2020-12-25 | 杭州海康威视数字技术股份有限公司 | 图片获取方法、装置及系统 |
CN112241968A (zh) * | 2019-07-19 | 2021-01-19 | 上海高德威智能交通系统有限公司 | 一种目标跟踪的方法和装置 |
WO2021031704A1 (zh) * | 2019-08-20 | 2021-02-25 | 平安科技(深圳)有限公司 | 对象追踪方法、装置、计算机设备和存储介质 |
CN112529939A (zh) * | 2020-12-15 | 2021-03-19 | 广州云从鼎望科技有限公司 | 一种目标轨迹匹配方法、装置、机器可读介质及设备 |
CN112712013A (zh) * | 2020-12-29 | 2021-04-27 | 杭州海康威视数字技术股份有限公司 | 一种移动轨迹构建方法及装置 |
CN112784244A (zh) * | 2019-11-11 | 2021-05-11 | 北京君正集成电路股份有限公司 | 一种利用目标验证提高目标检测整体效率的方法 |
CN112861565A (zh) * | 2019-11-12 | 2021-05-28 | 上海高德威智能交通系统有限公司 | 确定轨迹相似度的方法、装置、计算机设备和存储介质 |
WO2021217777A1 (zh) * | 2020-04-27 | 2021-11-04 | 初速度(苏州)科技有限公司 | 一种目标关联方法及装置 |
CN113658222A (zh) * | 2021-08-02 | 2021-11-16 | 上海影谱科技有限公司 | 一种车辆检测跟踪方法及装置 |
CN114353818A (zh) * | 2021-12-31 | 2022-04-15 | 上海洛轲智能科技有限公司 | 目标对象跟随方法、装置、设备、介质和计算机程序产品 |
CN115511818A (zh) * | 2022-09-21 | 2022-12-23 | 北京医准智能科技有限公司 | 一种肺结节检出模型的优化方法、装置、设备及存储介质 |
CN114353818B (zh) * | 2021-12-31 | 2024-05-14 | 上海洛轲智能科技有限公司 | 目标对象跟随方法、装置、设备、介质和计算机程序产品 |
-
2018
- 2018-03-01 CN CN201810172742.0A patent/CN108470353A/zh active Pending
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584274A (zh) * | 2018-11-22 | 2019-04-05 | 广东技术师范学院 | 一种水下动物的数量及其轨迹的检测方法及设备 |
CN109816701A (zh) * | 2019-01-17 | 2019-05-28 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法及装置、存储介质 |
CN109816701B (zh) * | 2019-01-17 | 2021-07-27 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法及装置、存储介质 |
CN111986230A (zh) * | 2019-05-23 | 2020-11-24 | 北京地平线机器人技术研发有限公司 | 一种视频中目标物的姿态跟踪方法及装置 |
CN112131423A (zh) * | 2019-06-25 | 2020-12-25 | 杭州海康威视数字技术股份有限公司 | 图片获取方法、装置及系统 |
CN110191324A (zh) * | 2019-06-28 | 2019-08-30 | Oppo广东移动通信有限公司 | 图像处理方法、装置、服务器及存储介质 |
CN112241968A (zh) * | 2019-07-19 | 2021-01-19 | 上海高德威智能交通系统有限公司 | 一种目标跟踪的方法和装置 |
CN110414443A (zh) * | 2019-07-31 | 2019-11-05 | 苏州市科远软件技术开发有限公司 | 一种目标跟踪方法、装置及枪球联动跟踪方法 |
WO2021031704A1 (zh) * | 2019-08-20 | 2021-02-25 | 平安科技(深圳)有限公司 | 对象追踪方法、装置、计算机设备和存储介质 |
CN110717403A (zh) * | 2019-09-16 | 2020-01-21 | 国网江西省电力有限公司电力科学研究院 | 一种人脸多目标跟踪方法 |
CN110717403B (zh) * | 2019-09-16 | 2023-10-24 | 国网江西省电力有限公司电力科学研究院 | 一种人脸多目标跟踪方法 |
CN112784244A (zh) * | 2019-11-11 | 2021-05-11 | 北京君正集成电路股份有限公司 | 一种利用目标验证提高目标检测整体效率的方法 |
CN112861565A (zh) * | 2019-11-12 | 2021-05-28 | 上海高德威智能交通系统有限公司 | 确定轨迹相似度的方法、装置、计算机设备和存储介质 |
CN112861565B (zh) * | 2019-11-12 | 2023-05-23 | 上海高德威智能交通系统有限公司 | 确定轨迹相似度的方法、装置、计算机设备和存储介质 |
CN111177449B (zh) * | 2019-12-30 | 2021-11-05 | 深圳市商汤科技有限公司 | 基于图片的多维信息整合方法及相关设备 |
CN111177449A (zh) * | 2019-12-30 | 2020-05-19 | 深圳市商汤科技有限公司 | 基于图片的多维信息整合方法及相关设备 |
CN113643324B (zh) * | 2020-04-27 | 2022-12-23 | 魔门塔(苏州)科技有限公司 | 一种目标关联方法及装置 |
CN113643324A (zh) * | 2020-04-27 | 2021-11-12 | 初速度(苏州)科技有限公司 | 一种目标关联方法及装置 |
WO2021217777A1 (zh) * | 2020-04-27 | 2021-11-04 | 初速度(苏州)科技有限公司 | 一种目标关联方法及装置 |
CN112529939A (zh) * | 2020-12-15 | 2021-03-19 | 广州云从鼎望科技有限公司 | 一种目标轨迹匹配方法、装置、机器可读介质及设备 |
CN112712013A (zh) * | 2020-12-29 | 2021-04-27 | 杭州海康威视数字技术股份有限公司 | 一种移动轨迹构建方法及装置 |
CN112712013B (zh) * | 2020-12-29 | 2024-01-05 | 杭州海康威视数字技术股份有限公司 | 一种移动轨迹构建方法及装置 |
CN113658222A (zh) * | 2021-08-02 | 2021-11-16 | 上海影谱科技有限公司 | 一种车辆检测跟踪方法及装置 |
CN114353818A (zh) * | 2021-12-31 | 2022-04-15 | 上海洛轲智能科技有限公司 | 目标对象跟随方法、装置、设备、介质和计算机程序产品 |
CN114353818B (zh) * | 2021-12-31 | 2024-05-14 | 上海洛轲智能科技有限公司 | 目标对象跟随方法、装置、设备、介质和计算机程序产品 |
CN115511818A (zh) * | 2022-09-21 | 2022-12-23 | 北京医准智能科技有限公司 | 一种肺结节检出模型的优化方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108470353A (zh) | 一种目标跟踪方法、装置和存储介质 | |
JP6625220B2 (ja) | シーン内のオブジェクトのアクションを検出する方法及びシステム | |
Shitrit et al. | Multi-commodity network flow for tracking multiple people | |
CN107545582A (zh) | 基于模糊逻辑的视频多目标跟踪方法及装置 | |
Angah et al. | Tracking multiple construction workers through deep learning and the gradient based method with re-matching based on multi-object tracking accuracy | |
US8243987B2 (en) | Object tracking using color histogram and object size | |
CN108460362B (zh) | 一种检测人体部位的系统及方法 | |
JP2024041997A (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN110163889A (zh) | 目标跟踪方法、目标跟踪装置、目标跟踪设备 | |
CN102378992A (zh) | 关节状区域检测装置及其方法 | |
CN107316317A (zh) | 一种行人多目标跟踪方法和装置 | |
CN112241969A (zh) | 基于交通监控视频的目标检测跟踪方法、装置及存储介质 | |
Bhat et al. | Target tracking using a mean-shift occlusion aware particle filter | |
CN109344792A (zh) | 一种目标自动识别跟踪方法 | |
EP3945463A1 (en) | A computing system and a computer-implemented method for sensing gameplay events and augmentation of video feed with overlay | |
Nodehi et al. | Multi-metric re-identification for online multi-person tracking | |
WO2020213099A1 (ja) | オブジェクト検出・追跡装置、方法、およびプログラム記録媒体 | |
Amer | Voting-based simultaneous tracking of multiple video objects | |
US11640713B2 (en) | Computing system and a computer-implemented method for sensing gameplay events and augmentation of video feed with overlay | |
CN114529587B (zh) | 一种视频目标跟踪方法、装置、电子设备及存储介质 | |
Cao et al. | Learning spatio-temporal context via hierarchical features for visual tracking | |
Lim et al. | Non-overlapping distributed tracking system utilizing particle filter | |
Makris et al. | Hierarchical feature fusion for visual tracking | |
Spagnolo et al. | On-field testing and evaluation of a goal-line technology system | |
Teoh et al. | Fast Regression Convolutional Neural Network for Visual Crowd Counting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |