CN109727268A - 目标跟踪方法、装置、计算机设备和存储介质 - Google Patents
目标跟踪方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN109727268A CN109727268A CN201811646132.6A CN201811646132A CN109727268A CN 109727268 A CN109727268 A CN 109727268A CN 201811646132 A CN201811646132 A CN 201811646132A CN 109727268 A CN109727268 A CN 109727268A
- Authority
- CN
- China
- Prior art keywords
- target
- scene
- video flowing
- detected
- scene recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本申请涉及一种目标跟踪方法、装置、计算机设备和存储介质。方法包括:对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果,其中,场景识别结果至少包括对空场景或对地场景中的任一场景,确定与场景识别结果相对应的目标检测算法,并采用目标检测算法对待检测视频流进行目标检测,得到目标检测结果,根据目标检测结果,从待检测视频流中确定跟踪目标,并对跟踪目标进行跟踪,可针对多种场景使用对应的检测算法实现跟踪目标的跟踪,满足监控各种场景中的跟踪目标的需要,实用性较高。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种目标跟踪方法、装置、计算机设备和存储介质。
背景技术
目标跟踪的研究和应用作为计算机视觉领域的一个重要分支,正日益广泛地应用到科学技术、国防建设、航天航空等各个领域,因而研究目标跟踪技术有着重大的实用价值和广阔发展前景。
传统的目标跟踪方法只具备对空目标的检测跟踪能力,或者,只具备对地目标的检测跟踪能力,无法同时满足复杂场景下的对空目标的检测跟踪和对地目标的检测跟踪,功能单一,实用性较差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够同时满足复杂场景下的低空的无人机和地面的车辆等目标检测的目标跟踪方法、装置、计算机设备和存储介质。
一种目标跟踪方法,所述方法包括:
对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
在其中一个实施例中,所述对待检测视频流中的预定帧图像进行场景识别,之前还包括:
检测所述待检测视频流中的预定帧图像中的场景识别标识;
根据所述场景识别标识确定需要对所述待检测视频流进行场景识别。
在其中一个实施例中,所述对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果,包括:
将所述待检测视频流中的预定帧图像输入场景识别模型进行预测,输出所述预定帧图像为每一所述场景的概率;
将所述概率最大的场景确定为所述场景识别结果。
在其中一个实施例中,所述将所述待检测视频流中的预定帧图像输入场景识别模型进行预测,之前还包括:
分别获取各个所述场景的至少一张训练图像,并对所述至少一张训练图像中的目标进行标记;
利用标记后的训练图像对初始深度学习网络进行训练,得到所述场景识别模型。
在其中一个实施例中,所述根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪,包括:
根据所述目标检测结果,从所述待检测视频流的预定帧图像中确定至少一个目标对象;
从所述至少一个目标对象中确定所述跟踪目标,采用预定跟踪模型算法确定下一帧图像中所述跟踪目标所在的位置信息。
在其中一个实施例中,所述根据所述目标检测结果,从所述待检测视频流的预定帧图像中确定至少一个目标对象,包括:
根据所述目标检测结果获取所述待检测视频流的预定帧图像的二值图像,其中,所述二值图像中包含至少一个目标点;
根据所述至少一个目标点的坐标信息对所述至少一个目标点进行数据点聚类,转换为至少一个目标块;
在所述至少一个目标块中确定所述至少一个目标对象。
在其中一个实施例中,所述在所述至少一个目标块中确定所述至少一个目标对象,包括:
根据剔除条件对所述至少一个目标块进行筛选,得到初选目标块;
从所述初选目标块中,确定出所述至少一个目标对象。
在其中一个实施例中,所述从所述初选目标块中,确定出所述至少一个目标对象,包括:
若所述初选目标块在所述预定帧图像之前的任意相邻的两个帧图像中匹配成功的次数超过预定值,则确定所述初选目标块为所述目标对象。
一种目标跟踪装置,所述装置包括:
场景识别模块,用于对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
目标检测模块,用于确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
目标跟踪模块,用于根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
一种计算机设备,包括存储器及处理器,所述存储器上存储有可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
上述目标跟踪方法、装置、计算机设备和存储介质,对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,场景识别结果至少包括对空场景或对地场景中的任一场景;确定与场景识别结果相对应的目标检测算法,并采用目标检测算法对待检测视频流进行目标检测,得到目标检测结果;根据目标检测结果,从待检测视频流中确定跟踪目标,并对跟踪目标进行跟踪。其中,通过对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果,可针对多种场景使用对应的检测算法实现跟踪目标的跟踪,满足监控各种场景中的跟踪目标的需要,实用性较高。
附图说明
图1为一个实施例中目标跟踪方法的流程示意图;
图2为另一个实施例中目标跟踪方法的流程示意图;
图3为一个实施例中S101的细化步骤的流程示意图;
图4为一个实施例中S103的细化步骤的流程示意图;
图5为一个实施例中S1031的细化步骤的流程示意图;
图6为地面道路监控场景的示意图;
图7为低空监控场景的示意图;
图8为一种对地场景的目标跟踪结果示意图;
图9为一种对空场景的目标跟踪结果示意图;
图10为一个实施例中目标跟踪装置的结构框图;
图11为一个实施例中计算机设备的内部结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着全方位、全纵深、全天候、实时监控时代的到来,要求系统对捕捉的视频中的帧图像进行处理时,既具备对空目标的检测跟踪能力,又要具备对地目标的检测跟踪能力,比如同时监控复杂背景下对空场景中的目标,例如低空无人机等,以及对地场景中的目标,例如地面行驶车辆等。当然随着技术的进步还有可能出现对海场景中的船只等,或者其他复杂场景中的目标。在下述方案中,主要以对空场景和对地场景为例进行说明,可以理解的是,这仅仅是一种场景的分类方式,随着技术的演进还可能出现其他的场景分类方式,基于本发明的实施例提供的方案,作出的针对场景的其他方式的分类也应该属于本发明的保护范围。
其中,在传统的目标检测方法基本无法同时满足复杂场景下的低空的无人机和地面的车辆等目标检测,比如基于帧间差分法实现对地场景的目标检测,其主要利用目标与背景间的运动信息进行目标检测;而基于canny的边缘检测实现对空场景的目标检测,其主要利用目标与背景的对比度信息进行目标检测。因此,对地场景的目标检测可能并不适用于对空场景,同样对空场景的目标检测也并不适用于对地场景。
为解决上述的技术问题,如图1所示,本发明的实施例提供了一种目标跟踪方法,包括以下步骤:
S101,对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
需要说明的是,场景识别是运动目标检测和跟踪的前提。由于对空场景中的目标和对地场景中的目标在图像中表现出的特征截然不同,导致两者的目标检测需要采用不同的方法,因此需要进行场景识别判断,才能确定后续处理方法。在进行场景识别处理时,一般只对预定帧图像(视频开始的初始帧图像或者视频的第一帧图像)进行场景识别,就可辨别出该视频所述的场景。其中,S101中,场景识别结果包括至少以下各项中的中任一场景:对空场景、对地场景。场景还可以包括诸如对海场景等其他场景。
S102,确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
其中,不同的场景识别结果对应不同的目标检测算法,在S102中,根据不同的场景采用不同的目标检测算法进行目标检测,主要是因为对空场景中的目标和对地场景中的目标在图像中表现出的特征截然不同,导致不同场景的帧图像中的目标在检测时必须采用不同的方法。例如:在对空场景的目标检测时,通常利用目标与背景的对比度差异特征的方法来提取目标轮廓,如基于canny的边缘检测等;相反,对地场景的目标检测时,通常利用目标与背景之间的运动特征来提取目标,如帧间差分法、高斯背景建模等。以上只是一些实例性的目标检测方式,当然,在本申请中,对空场景的目标的目标检测算法可以是基于灰度形态学顶帽(Top-Hat)变换的背景对消算法来实现;其主要利用Top-Hat变换中黑帽变换和白帽变换中两个不同且相互关联的结构元素对单帧图像进行滤波,滤掉低频成分,相当于滤掉云层等大面积背景,留下包含目标点在内的高频成分。对地场景的目标的目标检测算法可以是基于视觉背景提取(visual background extractor,ViBe)算法完成;其主要利用ViBe算法将地面背景(比如路面、树木、房屋等)进行减除,留下有运动特性的目标(比如行驶的车辆、走动的行人等)。
需要说明的是,采用目标检测算法对待检测视频流的当前帧图像或者任意一帧图像进行目标检测都可以。
S103,根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
在本发明实施例中,得到的目标检测结果是包含目标点在内的高频成分或有运动特性的目标,之后还需要对目标检测结果进行处理,从待检测视频流的预定帧图像中确定跟踪目标,并对跟踪目标进行跟踪。
上述目标跟踪方法,对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果,其中,场景识别结果至少包括对空场景或对地场景中的任一场景,确定与场景识别结果相对应的目标检测算法,并采用目标检测算法对待检测视频流进行目标检测,得到目标检测结果,根据目标检测结果,从待检测视频流中确定跟踪目标,并对跟踪目标进行跟踪。其中,通过对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果,可针对多种场景使用对应的检测算法实现跟踪目标的跟踪,满足监控各种场景中的跟踪目标的需要,实用性较高。
图2为另一个实施例中目标跟踪方法的流程示意图,包括以下步骤:
S201,检测所述待检测视频流中的预定帧图像中的场景识别标识;
S202,根据所述场景识别标识确定需要对所述待检测视频流进行场景识别;
在本发明实施例中,获取待检测视频流中的预定帧图像中的场景识别标识,根据场景识别标识可以确定需要对待检测视频流进行场景识别。例如,根据待检测视频流中的第一帧图像中的场景识别标识确定是否需要对待检测视频流进行场景识别,例如,场景识别标识为“1”则标识需要进行场景识别,否则场景识别标识为“0”则不进行场景识别,而是直接进行目标检测。
S203,对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
S204,确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
S205,根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
在本发明实施例中,上述S203、S204和S205描述的内容分别和S101、S102和S103描述的内容一致,此处不再加以赘述。
上述目标跟踪方法,检测待检测视频流中的预定帧图像中的场景识别标识,根据场景识别标识确定需要对待检测视频流进行场景识别,之后,对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果,其中,场景识别结果至少包括对空场景或对地场景中的任一场景,确定与场景识别结果相对应的目标检测算法,并采用目标检测算法对待检测视频流进行目标检测,得到目标检测结果,根据目标检测结果,从待检测视频流中确定跟踪目标,并对跟踪目标进行跟踪。其中,通过对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果,可针对多种场景使用对应的检测算法实现跟踪目标的跟踪,满足监控各种场景中的跟踪目标的需要,实用性较高。
进一步的,请参阅图3,为S101的细化步骤的流程示意图,包括:
S1011,将所述待检测视频流中的预定帧图像输入场景识别模型进行预测,输出所述预定帧图像为每一所述场景的概率;
进一步的,在S1011之前,还需要对初始深度学习网络进行训练,才可以得到可供使用的场景识别模型。具体的:分别获取各个所述场景的至少一张训练图像,并对所述至少一张训练图像中的目标进行标记;利用标记后的训练图像对初始深度学习网络进行训练,得到所述场景识别模型。
其中,场景识别模型是利用指定场景的训练图像的样本对初始深度学习网络进行模型训练获取的,利用训练好的场景识别模型的目标特征提取能力,可以实现对各个场景的识别。例如,以对空场景的图像以及对地场景的图像为例,对场景识别模型的训练过程说明如下:获取多张包含对空场景中包含空中目标的训练图像,同时获取多张包含对地场景中包含地面目标的训练图像;分别对样本中对空场景的训练图像中的空中目标和对地场景的训练图像中的地面目标进行标记,得到标记好的训练图像;用标记好的训练图像对深度学习网络进行训练,生成该场景识别模型。
S1012,将所述概率最大的场景确定为所述场景识别结果。
在本发明实施例中,将待检测视频流中的预定帧图像,例如,将第一帧图像输入场景识别模型进行预测,输出预定帧图像为各个场景的概率,例如,第一帧图像属于对空场景的概率、属于对地场景的概率以及属于其他的概率。之后,将概率符合特定条件的场景作为场景识别结果,即判断出该第一帧图像属于对地场景或者对空场景。为了提高识别的可靠性,挑选满足大于预设概率值,并且概率最大的场景作为待检测视频流的场景识别结果。
进一步的,请参阅图4,为S103的细化步骤的流程示意图,包括:
S1031,根据所述目标检测结果,从所述待检测视频流的预定帧图像中确定至少一个目标对象;
在本发明实施例中,采用目标检测算法对待检测视频流包含的帧图像进行目标检测后,无法直接得到目标的信息(例如,目标中心点坐标、宽高比等信息),还需要对目标检测结果进行关联处理等操作,从待检测视频流的预定帧图像中确定至少一个目标对象。
S1032,从所述至少一个目标对象中确定所述跟踪目标,采用预定跟踪模型算法确定下一帧图像中所述跟踪目标所在的位置信息。
在本发明实施例中,将至少一个目标对象输入到预定跟踪模型中,以输入到预定跟踪模型中的上述至少一个目标对象所在位置为中心,在下一帧图像中选取候选区域,利用预定跟踪模型算法获取存在于候选区域中的候选对象,若根据预定跟踪模型算法输出的分类值满足预设条件(例如,输出的分类值为预设的分类值),则将上述候选对象确定为跟踪目标,并用当前帧图像中跟踪目标的坐标信息进行跟踪,完成视频图像中目标的检测和跟踪。
需要说明的是,以上只是阐述了目标跟踪处理的原理,具体的,根据目标的跟踪方式的不同可以将预定跟踪模型算法分为两大类:生成模型方法和判别模型方法。其中,生成模型方法具体为:在当前帧图像中对目标区域建立模型,在下一帧图像中寻找与模型最相似的区域,即为目标预测位置,如卡尔曼滤波、粒子滤波、均值漂移和模板匹配等。判别模型方法具体为:在当前帧图像中以目标区域为正样本,背景区域为负样本用来训练分类器,下一帧图像中用训练好的分类器寻找最佳区域,经典的判别类方法有Struck(StructuredOutput Tracking with Kernels)和TLD(Tracking-Learning-Detection)等。
可选的,基于判别相关滤波器(kernelized correlation filters,KCF)算法实现对跟踪目标的跟踪处理,具体为,以跟踪目标所在位置为中心,在下一帧图像中选取多个候选区域,利用KCF的分类模型在候选区域中获取最优的候选目标对应的位置,即为跟踪目标所在位置。
进一步的,请参阅图5,为S1031的细化步骤的流程示意图,包括:
S10311,根据所述目标检测结果获取所述待检测视频流的预定帧图像的二值图像,其中,所述二值图像中包含至少一个目标点;
在本发明实施例中,采用目标检测算法对待检测视频流包含的帧图像进行目标检测后,无法直接得到目标的信息(例如,目标中心点坐标、宽高比等信息),还需要对目标检测结果进行关联处理等操作,从待检测视频流的预定帧图像中确定至少一个目标对象。其中,在得到目标检测结果后,获取待检测视频流的预定帧图像的二值图像,其中,预定帧图像可以和预定帧图像一样,都是视频开始的初始帧图像或者视频的第一帧图像,或者预定帧图像也可以是当前帧图像的下一帧图像等。
S10312,根据所述至少一个目标点的坐标信息对所述至少一个目标点进行数据点聚类,转换为至少一个目标块;
在本发明实施例中,从预定帧图像的二值图像中,获取所有目标点的坐标信息,并统计目标点的数目,对目标点的坐标信息进行数据点聚类,转换成多个目标块。
在本发明实施例中,为提高目标的信息的准去性,在对目标点的坐标信息进行数据点聚类前还可以将目标点中的噪声点及不符合条件的目标点进行剔除。
S10313,根据剔除条件对所述至少一个目标块进行筛选,得到初选目标块;
在本发明实施例中,可以对至少一个目标块进行数据配准,剔除满足剔除条件的目标块,若不满足剔除条件,则保存该目标块,得到初选目标块。
S10314,从所述初选目标块中,确定出所述至少一个目标对象。
可选的,若所述初选目标块在所述预定帧图像之前的任意相邻的两个帧图像中匹配成功的次数超过预定值,则确定所述初选目标块为所述目标对象。
在本发明实施例中,对初选目标块中的每一个目标块的互联帧数进行判断,当某一个目标块在预定帧图像之前的任意相邻的两个帧图像中匹配成功的次数超过预定值,则确定该目标块为目标对象,同时可以获得目标对象的中心点坐标、目标大小以及目标所在位置等信息。其中,互联帧数代表前后两帧图像中目标经过关联处理时,当前帧图像的目标块和前一帧的目标块匹配成功的次数。
为了验证上述实施例中的方法对图像具备场景识别的能力,分别对地面和天空两种场景下的目标进行检测。图6所示为地面道路监控场景示意图,主要对路面上的车辆进行检测。
其中,通过终端界面输出了对图6的场景识别结果为:
framenum=1(帧数=1,即第一帧图像,)
Ground Detection(对地场景或对地检测)
从中可以看出对视频开始第一帧图像进行场景识别判断的场景识别结果对地场景。
与此同时,对红外探测仪拍摄的复杂背景下低空无人机目标进行监控,图7为低空监控场景的示意图,主要对无人机目标进行检测。
其中,通过终端界面输出了对图7的场景识别结果为:
framenum=1(帧数=1,即第一帧图像,)
Air Detection(对空场景或对空检测)
从中可以看出对视频开始第一帧图像进行场景识别判断的场景识别结果对空场景。
此外,为了验证上述实施例中的方法是否能够在复杂背景下完成目标检测跟踪的功能,分别对上述天空和地面场景识别的视频进行处理,输出图8,其中,通过终端界面输出了对图8的场景中的车辆目标的跟踪结果如下:
framenum=1,detect_flag=1;/detect_flag检测标志位/
……
framenum=34,detect_flag=1;
framenum=35,detect_flag=1;
framenum=36,detect_flag=1;
framenum=37,detect_flag=1;
……
framenum=62,detect_flag=1;
framenum=63,detect_flag=1;
framenum=64,detect_flag=1;
framenum=65,detect_flag=1;
framenum=66,detect_flag=1;
track_flag=1;/track_flag/跟踪标志位/
framenum=67,detect_flag=0;
framenum=68,detect_flag=0;
framenum=69,detect_flag=0;
framenum=70,detect_flag=1;
framenum=71,detect_flag=1;
从图8的图像显示界面可以看出,已经从识别到的地面场景图像中将车辆目标检测出来,并完成跟踪。从终端界面输出的对图8的场景中的车辆目标的跟踪结果可以看出,检测标志位detect flag从第一帧开始始终为1,直到第66帧开始满足跟踪条件转为跟踪,跟踪标志位track flag变为1,此时检测标志位detect flag变为0,实现车辆目标的检测和跟踪。
与此同时,对复杂背景下的无人机目标完成目标检测跟踪的功能,输出图9,其中,通过终端界面输出了对图9的场景中的无人机目标的跟踪结果如下:
framenum=1,detect_flag=1;/detect_flag检测标志位/
……
framenum=34,detect_flag=1;
framenum=35,detect_flag=1;
framenum=36,detect_flag=1;
framenum=37,detect_flag=1;
……
framenum=127,detect_flag=1;
framenum=128,detect_flag=1;
framenum=129,detect_flag=1;
track_flag=1;/track_flag/跟踪标志位/
framenum=130,detect_flag=0;
framenum=131,detect_flag=0;
framenum=132,detect_flag=0;
framenum=133,detect_flag=0;
framenum=134,detect_flag=1;
framenum=135,detect_flag=1;
从图9的图像显示界面可以看出,已经从识别到的空中场景图像中将无人机目标检测出来,并完成跟踪。从终端界面输出的对图9的场景中的无人机目标的跟踪结果可以看出,检测标志位detect flag从第一帧开始始终为1,直到第129帧开始满足跟踪条件转为跟踪,跟踪标志位track flag变为1,此时检测标志位detect flag变为0,实现无人机目标的检测跟踪。
应该理解的是,虽然图1-5的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-5中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图10所示,提供了一种目标跟踪装置,包括:场景识别模块1001、目标检测模块1002和目标跟踪模块1003,其中:
场景识别模块1001,用于对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
目标检测模块1002,用于确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
目标跟踪模块1003,用于根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
作为一种可选的实施方式,所述目标跟踪装置还包括:场景识别确定模块,所述场景识别确定模块用于:
检测所述待检测视频流中的预定帧图像中的场景识别标识;
根据所述场景识别标识确定需要对所述待检测视频流进行场景识别。
作为一种可选的实施方式,所述场景识别模块1001用于:
将所述待检测视频流中的预定帧图像输入场景识别模型进行预测,输出所述预定帧图像为每一所述场景的概率;
将所述概率最大的场景确定为所述场景识别结果。
作为一种可选的实施方式,所述目标跟踪装置还包括:标记模块和训练模块;所述标记模块用于:
分别获取各个所述场景的至少一张训练图像,并对所述至少一张训练图像中的目标进行标记;
所述训练模块用于:
利用标记后的训练图像对初始深度学习网络进行训练,得到所述场景识别模型。
作为一种可选的实施方式,所述目标跟踪模块1003用于:
根据所述目标检测结果,从所述待检测视频流的预定帧图像中确定至少一个目标对象;
从所述至少一个目标对象中确定所述跟踪目标,采用预定跟踪模型算法确定下一帧图像中所述跟踪目标所在的位置信息。
作为一种可选的实施方式,所述目标跟踪模块1003还用于:
根据所述目标检测结果获取所述待检测视频流的预定帧图像的二值图像,其中,所述二值图像中包含至少一个目标点;
根据所述至少一个目标点的坐标信息对所述至少一个目标点进行数据点聚类,转换为至少一个目标块;
在所述至少一个目标块中确定所述至少一个目标对象。
作为一种可选的实施方式,所述目标跟踪模块1003还用于:
根据剔除条件对所述至少一个目标块进行筛选,得到初选目标块;
从所述初选目标块中,确定出所述至少一个目标对象。
作为一种可选的实施方式,所述目标跟踪模块1003还用于:
若所述初选目标块在所述预定帧图像之前的任意相邻的两个帧图像中匹配成功的次数超过预定值,则确定所述初选目标块为所述目标对象。
关于目标跟踪装置的具体限定可以参见上文中对于目标跟踪方法的限定,在此不再赘述。上述目标跟踪装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图11所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储视频数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种目标跟踪方法。
本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器及处理器,所述存储器上存储有可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
检测所述待检测视频流中的预定帧图像中的场景识别标识;
根据所述场景识别标识确定需要对所述待检测视频流进行场景识别。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将所述待检测视频流中的预定帧图像输入场景识别模型进行预测,输出所述预定帧图像为每一所述场景的概率;
将所述概率最大的场景确定为所述场景识别结果。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
分别获取各个所述场景的至少一张训练图像,并对所述至少一张训练图像中的目标进行标记;
利用标记后的训练图像对初始深度学习网络进行训练,得到所述场景识别模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据所述目标检测结果,从所述待检测视频流的预定帧图像中确定至少一个目标对象;
从所述至少一个目标对象中确定所述跟踪目标,采用预定跟踪模型算法确定下一帧图像中所述跟踪目标所在的位置信息。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据所述目标检测结果获取所述待检测视频流的预定帧图像的二值图像,其中,所述二值图像中包含至少一个目标点;
根据所述至少一个目标点的坐标信息对所述至少一个目标点进行数据点聚类,转换为至少一个目标块;
在所述至少一个目标块中确定所述至少一个目标对象。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据剔除条件对所述至少一个目标块进行筛选,得到初选目标块;
从所述初选目标块中,确定出所述至少一个目标对象。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
若所述初选目标块在所述预定帧图像之前的任意相邻的两个帧图像中匹配成功的次数超过预定值,则确定所述初选目标块为所述目标对象。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
检测所述待检测视频流中的预定帧图像中的场景识别标识;
根据所述场景识别标识确定需要对所述待检测视频流进行场景识别。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将所述待检测视频流中的预定帧图像输入场景识别模型进行预测,输出所述预定帧图像为每一所述场景的概率;
将所述概率最大的场景确定为所述场景识别结果。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
分别获取各个所述场景的至少一张训练图像,并对所述至少一张训练图像中的目标进行标记;
利用标记后的训练图像对初始深度学习网络进行训练,得到所述场景识别模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据所述目标检测结果,从所述待检测视频流的预定帧图像中确定至少一个目标对象;
从所述至少一个目标对象中确定所述跟踪目标,采用预定跟踪模型算法确定下一帧图像中所述跟踪目标所在的位置信息。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据所述目标检测结果获取所述待检测视频流的预定帧图像的二值图像,其中,所述二值图像中包含至少一个目标点;
根据所述至少一个目标点的坐标信息对所述至少一个目标点进行数据点聚类,转换为至少一个目标块;
在所述至少一个目标块中确定所述至少一个目标对象。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据剔除条件对所述至少一个目标块进行筛选,得到初选目标块;
从所述初选目标块中,确定出所述至少一个目标对象。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
若所述初选目标块在所述预定帧图像之前的任意相邻的两个帧图像中匹配成功的次数超过预定值,则确定所述初选目标块为所述目标对象。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (11)
1.一种目标跟踪方法,其特征在于,所述方法包括:
对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
2.根据权利要求1所述的方法,其特征在于,所述对待检测视频流中的预定帧图像进行场景识别,之前还包括:
检测所述待检测视频流中的预定帧图像中的场景识别标识;
根据所述场景识别标识确定需要对所述待检测视频流进行场景识别。
3.根据权利要求1所述的方法,其特征在于,所述对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果,包括:
将所述待检测视频流中的预定帧图像输入场景识别模型进行预测,输出所述预定帧图像为每一所述场景的概率;
将所述概率最大的场景确定为所述场景识别结果。
4.根据权利要求3所述的方法,其特征在于,所述将所述待检测视频流中的预定帧图像输入场景识别模型进行预测,之前还包括:
分别获取各个所述场景的至少一张训练图像,并对所述至少一张训练图像中的目标进行标记;
利用标记后的训练图像对初始深度学习网络进行训练,得到所述场景识别模型。
5.根据权利要求1所述的方法,其特征在于,所述根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪,包括:
根据所述目标检测结果,从所述待检测视频流的预定帧图像中确定至少一个目标对象;
从所述至少一个目标对象中确定所述跟踪目标,采用预定跟踪模型算法确定下一帧图像中所述跟踪目标所在的位置信息。
6.根据权利要求5所述的方法,其特征在于,所述根据所述目标检测结果,从所述待检测视频流的预定帧图像中确定至少一个目标对象,包括:
根据所述目标检测结果获取所述待检测视频流的预定帧图像的二值图像,其中,所述二值图像中包含至少一个目标点;
根据所述至少一个目标点的坐标信息对所述至少一个目标点进行数据点聚类,转换为至少一个目标块;
在所述至少一个目标块中确定所述至少一个目标对象。
7.根据权利要求6所述的方法,其特征在于,所述在所述至少一个目标块中确定所述至少一个目标对象,包括:
根据剔除条件对所述至少一个目标块进行筛选,得到初选目标块;
从所述初选目标块中,确定出所述至少一个目标对象。
8.根据权利要求7所述的方法,其特征在于,所述从所述初选目标块中,确定出所述至少一个目标对象,包括:
若所述初选目标块在所述预定帧图像之前的任意相邻的两个帧图像中匹配成功的次数超过预定值,则确定所述初选目标块为所述目标对象。
9.一种目标跟踪装置,其特征在于,所述装置包括:
场景识别模块,用于对待检测视频流中的预定帧图像进行场景识别,确定场景识别结果;其中,所述场景识别结果至少包括对空场景或对地场景中的任一场景;
目标检测模块,用于确定与所述场景识别结果相对应的目标检测算法,并采用所述目标检测算法对所述待检测视频流进行目标检测,得到目标检测结果;
目标跟踪模块,用于根据所述目标检测结果,从所述待检测视频流中确定跟踪目标,并对所述跟踪目标进行跟踪。
10.一种计算机设备,包括存储器及处理器,所述存储器上存储有可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811646132.6A CN109727268A (zh) | 2018-12-29 | 2018-12-29 | 目标跟踪方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811646132.6A CN109727268A (zh) | 2018-12-29 | 2018-12-29 | 目标跟踪方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109727268A true CN109727268A (zh) | 2019-05-07 |
Family
ID=66298564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811646132.6A Pending CN109727268A (zh) | 2018-12-29 | 2018-12-29 | 目标跟踪方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109727268A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111311640A (zh) * | 2020-02-21 | 2020-06-19 | 中国电子科技集团公司第五十四研究所 | 一种基于运动估计的无人机识别跟踪方法 |
CN113497953A (zh) * | 2020-04-07 | 2021-10-12 | 北京达佳互联信息技术有限公司 | 音乐的场景识别方法、装置、服务器及存储介质 |
CN113673391A (zh) * | 2021-08-09 | 2021-11-19 | 浙江大华技术股份有限公司 | 一种视频场景分类的方法、系统、设备及存储介质 |
CN114445711A (zh) * | 2022-01-29 | 2022-05-06 | 北京百度网讯科技有限公司 | 图像检测方法、装置、电子设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8792680B2 (en) * | 2005-06-23 | 2014-07-29 | Israel Aerospace Industries Ltd. | System and method for tracking moving objects |
CN104268899A (zh) * | 2014-09-22 | 2015-01-07 | 河海大学 | 基于帧间差分和背景差分的运动目标检测方法 |
CN107194318A (zh) * | 2017-04-24 | 2017-09-22 | 北京航空航天大学 | 目标检测辅助的场景识别方法 |
CN107316035A (zh) * | 2017-08-07 | 2017-11-03 | 北京中星微电子有限公司 | 基于深度学习神经网络的对象识别方法及装置 |
CN107886048A (zh) * | 2017-10-13 | 2018-04-06 | 西安天和防务技术股份有限公司 | 目标跟踪方法及系统、存储介质及电子终端 |
CN108256567A (zh) * | 2018-01-12 | 2018-07-06 | 环球大数据科技有限公司 | 一种基于深度学习的目标识别方法及系统 |
CN108875519A (zh) * | 2017-12-19 | 2018-11-23 | 北京旷视科技有限公司 | 对象检测方法、装置和系统及存储介质 |
CN108921001A (zh) * | 2018-04-18 | 2018-11-30 | 特斯联(北京)科技有限公司 | 一种采用人工智能预测追踪的视频监视云台及其追踪方法 |
-
2018
- 2018-12-29 CN CN201811646132.6A patent/CN109727268A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8792680B2 (en) * | 2005-06-23 | 2014-07-29 | Israel Aerospace Industries Ltd. | System and method for tracking moving objects |
CN104268899A (zh) * | 2014-09-22 | 2015-01-07 | 河海大学 | 基于帧间差分和背景差分的运动目标检测方法 |
CN107194318A (zh) * | 2017-04-24 | 2017-09-22 | 北京航空航天大学 | 目标检测辅助的场景识别方法 |
CN107316035A (zh) * | 2017-08-07 | 2017-11-03 | 北京中星微电子有限公司 | 基于深度学习神经网络的对象识别方法及装置 |
CN107886048A (zh) * | 2017-10-13 | 2018-04-06 | 西安天和防务技术股份有限公司 | 目标跟踪方法及系统、存储介质及电子终端 |
CN108875519A (zh) * | 2017-12-19 | 2018-11-23 | 北京旷视科技有限公司 | 对象检测方法、装置和系统及存储介质 |
CN108256567A (zh) * | 2018-01-12 | 2018-07-06 | 环球大数据科技有限公司 | 一种基于深度学习的目标识别方法及系统 |
CN108921001A (zh) * | 2018-04-18 | 2018-11-30 | 特斯联(北京)科技有限公司 | 一种采用人工智能预测追踪的视频监视云台及其追踪方法 |
Non-Patent Citations (2)
Title |
---|
刘慧勤: "目标检测技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
杨磊等: "《网络视频监控技术》", 30 June 2017 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111311640A (zh) * | 2020-02-21 | 2020-06-19 | 中国电子科技集团公司第五十四研究所 | 一种基于运动估计的无人机识别跟踪方法 |
CN111311640B (zh) * | 2020-02-21 | 2022-11-01 | 中国电子科技集团公司第五十四研究所 | 一种基于运动估计的无人机识别跟踪方法 |
CN113497953A (zh) * | 2020-04-07 | 2021-10-12 | 北京达佳互联信息技术有限公司 | 音乐的场景识别方法、装置、服务器及存储介质 |
CN113673391A (zh) * | 2021-08-09 | 2021-11-19 | 浙江大华技术股份有限公司 | 一种视频场景分类的方法、系统、设备及存储介质 |
CN114445711A (zh) * | 2022-01-29 | 2022-05-06 | 北京百度网讯科技有限公司 | 图像检测方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596277B (zh) | 一种车辆身份识别方法、装置和存储介质 | |
CN108388888B (zh) | 一种车辆识别方法、装置和存储介质 | |
CN109977782B (zh) | 基于目标位置信息推理的跨店经营行为检测方法 | |
CN109727268A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN109145708B (zh) | 一种基于rgb和d信息融合的人流量统计方法 | |
CN108875600A (zh) | 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质 | |
Peng et al. | Drone-based vacant parking space detection | |
CN110706247B (zh) | 一种目标跟踪方法、装置及系统 | |
CN103914702A (zh) | 用于提高视频中的对象检测性能的系统和方法 | |
CN105279484A (zh) | 对象检测方法和对象检测装置 | |
CN104303193A (zh) | 基于聚类的目标分类 | |
CN105868708A (zh) | 一种图像目标识别方法及装置 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
Chang et al. | Video analytics in smart transportation for the AIC'18 challenge | |
CN111767878A (zh) | 嵌入式设备中基于深度学习的交通标志检测方法及系统 | |
CN104615986A (zh) | 利用多检测器对场景变化的视频图像进行行人检测的方法 | |
CN112836683B (zh) | 用于便携式摄像设备的车牌识别方法、装置、设备和介质 | |
CN111753610B (zh) | 天气识别方法及装置 | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 | |
CN112507760B (zh) | 暴力分拣行为的检测方法、装置及设备 | |
CN111832515B (zh) | 一种密集行人检测方法、介质、终端和装置 | |
CN109872541A (zh) | 一种车辆信息分析方法及装置 | |
CN112434566A (zh) | 客流统计方法、装置、电子设备及存储介质 | |
CN115620090A (zh) | 模型训练方法、低照度目标重识别方法和装置、终端设备 | |
Keawboontan et al. | Toward real-time uav multi-target tracking using joint detection and tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190507 |