CN111383244B - 一种目标检测跟踪方法 - Google Patents

一种目标检测跟踪方法 Download PDF

Info

Publication number
CN111383244B
CN111383244B CN202010130377.4A CN202010130377A CN111383244B CN 111383244 B CN111383244 B CN 111383244B CN 202010130377 A CN202010130377 A CN 202010130377A CN 111383244 B CN111383244 B CN 111383244B
Authority
CN
China
Prior art keywords
image
target
detection
frame
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010130377.4A
Other languages
English (en)
Other versions
CN111383244A (zh
Inventor
金达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202010130377.4A priority Critical patent/CN111383244B/zh
Publication of CN111383244A publication Critical patent/CN111383244A/zh
Application granted granted Critical
Publication of CN111383244B publication Critical patent/CN111383244B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种目标检测跟踪方法。该方法包括:获取当前帧图像,对当前帧图像进行背景消除,以获得二值化检测图像,其中在二值化检测图像中,静态背景区域和动态前景区域由不同的像素值表示。利用二值化检测图像对靶标图像标定,其中靶标图像设置有以阵列方式排布的多个坐标点,坐标点的排布密度小于二值化检测图像内的像素点的排布密度。根据坐标点在靶标图像中的坐标对由动态前景区域进行标定的坐标点进行聚类,以形成多个聚类类别。根据聚类类别对当前帧图像进行局部图像提取。对提取的局部图像中进行目标检测。本申请能够避免将当前帧图像均匀划分以获取局部图像时可能出现将同一目标分割到不同局部图像而造成漏检问题,能提高检测精度。

Description

一种目标检测跟踪方法
技术领域
本申请涉及视频图像处理技术领域,特别是涉及一种目标检测跟踪方法。
背景技术
运动的视觉分析是近年来计算机视觉领域中备受关注的前沿方向,它从图像序列中检测、识别、跟踪运动目标并对其行为进行理解和描述,属于图像分析和理解的范畴。运动分析的研究内容相当丰富,主要涉及到模式识别、图像处理、计算机视觉、人工智能等学科知识。同时,动态场景中运动的快速分割、非刚性运动、目标之间互相遮挡或停止的处理等也为运动分析研究带来了一定的挑战。运动检测的目的是从序列图像中将变化区域从背景图像中提取出来。运动区域的有效分割对于目标分类、跟踪和行为理解等后期处理非常重要。如何能够提高目标检测精度和速度是业界一直有待解决的问题。
发明内容
本申请主要提供一种目标检测跟踪方法,以提高目标检测精度和检测速度。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种目标检测跟踪方法。该方法包括:获取当前帧图像。对当前帧图像进行背景消除,以获得二值化检测图像,其中在二值化检测图像中,静态背景区域和动态前景区域分别由不同的像素值表示。利用二值化检测图像对靶标图像进行标定,其中靶标图像设置有以阵列方式排布的多个坐标点,坐标点的排布密度小于二值化检测图像内的像素点的排布密度。根据坐标点在靶标图像中的坐标对由动态前景区域进行标定的坐标点进行聚类,以形成多个聚类类别。根据聚类类别对当前帧图像进行局部图像提取。对提取的局部图像中进行目标检测。
其中,对当前帧图像进行背景消除的步骤包括:将当前帧图像分割成多个子图块,对多个子图块分别进行背景消除,以获得多个二值化图块,将二值化图块进行拼接,以获取二值化检测图像。
其中,对由动态前景区域进行标定的坐标点进行聚类所形成的类别数量为K/3的取整值,其中K为对当前帧图像的长度和/或宽度进行分割的分割次数。
其中,该方法进一步包括:若能够框选到某一聚类类别内的全部坐标点的最小外接矩形框的面积大于预设的提取框的面积,则对某一聚类类别内的坐标点进行再次聚类。其中,再次聚类所形成的类别数量为的取整值,其中SA为最小外接矩形框的面积,SS为提取框的面积。
其中,根据聚类类别对当前帧图像进行局部图像提取的步骤包括:
利用能够框选到聚类类别内的全部坐标点的最小外接矩形框从当前帧图像中提取局部图像。
其中,根据聚类类别对当前帧图像进行局部图像提取的步骤包括:
若能够框选到聚类类别内的全部坐标点的最小外接矩形框的面积小于预设的提取框的面积,则利用提取框从当前帧图像中提取局部图像。
对提取的局部图像进行目标检测的步骤包括:从对局部图像进行目标检测所获取的目标检测框中选择位于最小外接矩形框内的目标检测框。
其中,该方法进一步包括:将对局部图像进行目标检测所获取的目标检测框内的图像与二值化检测图像的对应区域内的图像进行互相关运算,选择相关性大于预设相关性阈值或相关性最大的预定数量的目标检测框作为最佳目标检测框。
其中,该方法进一步包括:在后续图像帧中对所述最佳目标检测框内的目标进行跟踪。
为解决上述技术问题,本申请采用的又一个技术方案是,提供一种目标检测跟踪装置,包括:处理器。存储器,耦接处理器,用于存储一个或多个程序。当一个或多个程序被处理器执行,使得处理器实现上述目标检测跟踪方法。
为解决上述技术问题,本申请采用的另一个技术方案是,提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述目标检测方法。
本申请的有益效果是:区别于现有技术的情况,本申请的目标检测跟踪方法通过利用获取的二值化检测图像对靶标图像进行靶标,再对靶标图像中由动态前景区域靶标的坐标点进行聚类。由于靶标图像的坐标点密度小于像素点密度,因此能够有效提高检测速度。
进一步地,对靶标图像中由前景目标区域标定的坐标点进行聚类以形成多个聚类类别。并根据每个类别对当前帧图像进行局部图像提取。由于聚类可以使同一动态目标的大部分像素点都被包括在一个类别中,因此能够保证同一动态目标位于同一局部图像中,从而避免在对局部图像进行目标检测时可能造成的漏检现象,提高检测精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,其中:
图1是本申请提供的目标检测跟踪方法一实施例的流程示意图;
图2是本申请提供的目标检测跟踪方法另一实施例的流程示意;
图3为本申请提供的目标检测跟踪装置一实施例的结构示意图;
图4为本申请提供一种存储介质的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
参阅图1和图2,图1是本申请提供的目标检测跟踪方法一实施例的流程示意图。图2是本申请提供的目标检测跟踪方法另一实施例的流程示意图。
S10:获取当前帧图像。从视频连续帧图像中获取任意一帧图像作为当前帧图像。视频帧连续帧图像可以从视频监控装置拍摄的各类监控视频流获取,比如车辆监控视频。也可以是利用监控摄像头实时采集的视频图像,定义为I(x,y,t),其中I(x,y)表示每一帧图像的数据,I(x,y,t)即为时间t时刻对应的视频流图像。本实施例中,系统可以通过通讯接口接收用户上传的视频帧图像。
S20:对当前帧图像进行背景消除,以获得二值化检测图像,其中在二值化检测图像中,静态背景区域和动态前景区域分别由不同的像素值表示。可选地,本实施例利用背景差分法对当前帧图像进行背景消除。背景差分法,需要先建立背景,故而将视频流转换成连续帧图像中的前面几十帧用于建立背景,具体过程是:建立一个与当前帧图像一样大的背景掩膜,初始化为1。连续两帧图像相减得一差分图,遍历该差分图的每个像素值,如果像素值大于设定的阈值T1则背景掩膜中对应位置的值保持为1,否则背景掩膜中对应位置的值设为0。统计掩膜中0的个数,如果0的个数大于设定的阈值T2,则背景建立完成,如若小于T2,则更新差分图,循环前面步骤。
背景建立完成后,只需将当前帧图像减去背景图,就可获取目标前景图像。之后可建立一个与目标前景图像一样大的掩膜,初始化为1。遍历目标前景图像的每个像素值,如果像素值大于设定的阈值T3,则掩膜中对应位置的值保持为1,否则掩膜中对应位置的值设为0,通过上述步骤可获取当前图像帧的二值化检测图像。
在一具体实施方式中,为避免因当前帧图像分辨率过大,影响图像背景消除的实时性,将当前帧图像进行分割之后再对各个子图块进行背景消除。具体实现过程如下,
S21:将当前帧图像I(x,y,t)分割成多个子图块。可选地,采用区域网格划分方法,将当前帧图像I(x,y,t)分割成尺寸大小相同的子图块,定义图像分割系数为k,将当前帧图像I(x,y,t)划分为k×k个子图块Rn(x,y,t),其中n=1,2,...,k×k。
S22:分别对各个子图块Rn(x,y,t)进行背景消除,以获得二值化图块。
S23:将当前帧图像的二值化图块进行拼接,以获取二值化检测图像。通过滤波算法来对当前帧图像的二值化图块进行重拼接,获取边缘对应区域连续的二值化检测图像,其中滤波算法包含但不限于均值滤波、中值滤波、高斯滤波等。
S30:利用二值化检测图像对靶标图像进行标定,其中靶标图像设置有以阵列方式排布的多个坐标点,坐标点的排布密度小于二值化检测图像内的像素点的排布密度。
具体地,将靶标图像所有像素点的像素值重置为1,然后将靶标图像与二值化检测图像逐像素进行逻辑与运算即可获取标定的靶标图像。由于靶标图像坐标点的排布密度小于二值化检测图像的像素点的排布密度,因此靶标图像仅被二值化检测图像的部分像素点标定。
S40:根据坐标点在靶标图像中的坐标对由动态前景区域进行标定的坐标点进行聚类,以形成多个聚类类别。由动态前景区域标定的坐标点在靶标图像中的表现形式是:像素值为1的像素点。也即是对靶标图像中像素值为1的坐标点进行聚类。可选地,利用k-means聚类算法实现上述聚类过程。k-means聚类算法是一种迭代求解的聚类分析算法,其步骤是随机选取k个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类。每分配一个样本,聚类的聚类中心会根据聚类中现有的对象被重新计算。这个过程将不断重复直到满足某个终止条件。终止条件可以是没有对象被重新分配给不同的聚类,没有聚类中心再发生变化,误差平方和局部最小。本实施例中,可将靶标图像中像素值为1的坐标点聚为k/3的取整值个类别,其中对k/3的取整可以是向上取整也可以是向下取整,k为步骤S22对当前帧图像的长度和/或宽度进行分割的分割次数,根据坐标点之间的欧式距离将要聚类的坐标点分到合适的类别当中。
若能够框选到某一聚类类别内的全部坐标点的最小面积外接矩形框的面积大于预设的提取框的面积,则对某一聚类类别内的坐标点进行再次聚类。本实施例利用最小外接矩形算法框选出靶标图像中每个类别的全部坐标点以形成每个类别的最小外接矩形。较佳地,利用直接计算方法计算出每个类别的最小面积外接矩形。具体地,获取每个类别像素点的最大横坐标和最小横坐标以及最大纵坐标和最小纵坐标以得到最小面积外接矩形。本实施例中预设的提取框的面积可以是最优检测框的面积,在此不做限定。
再次聚类所形成的类别数量为的取整值,其中对/>的取整可以是向上取整或者向下取整。SA为最小外接矩形框的面积,SS为预设的提取框的面积。
S50:根据聚类类别对当前帧图像进行局部图像提取。
可选地,利用能够框选到聚类类别内的全部坐标点的最小外接矩形框从当前帧图像中提取局部图像。具体地,根据每个聚类类别的最小面积外接矩形左上角坐标点的坐标值以及最小面积外接矩形的长宽提取当前帧图像的局部图像。
若能够框选到靶标图像中聚类类别内的全部坐标点的最小外接矩形框的面积小于预设的提取框的面积,则利用提取框从当前帧图像中提取局部图像。具体地,若能够框选到靶标图像中聚类类别内的全部坐标点的最小外接矩形框的面积小于预设的提取框的面积,则在靶标图像中绘制面积等于提取框并包围该类别所包含的全部坐标点的矩形框,并根据该矩形框左上角坐标点的坐标值以及该矩形框的长宽提取当前帧图像的局部图像。
S60:对当前帧图像的局部图像进行目标检测。现有的目标检测方法例如R-CNN(Regions with CNN features)、R-CNN(Fast Regions with CNNfeatures)、SSD以及YOLO(You Only Look Once,以下简称YOLO)均可实现本申请对局部图像的目标检测。可选地,本实施例通过预设的基于YOLO的目标检测模型对提取的局部图像进行检测,以确定待测局部图像中的目标。
具体实施时,上述预设的目标检测模型可以是利用YOLO卷积神经网络目标算法预先通过学习、训练建立的用于检测识别局部图像中的待检测目标的分类模型。上述YOLO具体可以理解为是一种基于深度学习的目标检测算法,该算法主要是把物体检测问题处理成回归问题,可以利用一个卷积神经网络结构根据输入的图像预测物体边界框和类别概率。YOLO区别于R-CNN、Fast R-CNN等目标检测算法,具有处理速度快、误差小、准确度高等特点。
本申请的目标检测跟踪方法通过利用获取的二值化检测图像对靶标图像进行靶标,再对靶标图像中由动态前景区域靶标的坐标点进行聚类。由于靶标图像的坐标点密度小于像素点密度,因此能够减少聚类操作的计算量,加快整个检测目标过程的速度。对靶标图像中由前景目标区域标定的坐标点进行聚类以形成多个聚类类别。并根据每个类别对当前帧图像进行局部图像提取。因为聚类可以使同一动态目标的大部分像素点都被包括在一个类别中,因此能够保证同一动态目标位于同一局部图像中,从而避免在对局部图像进行目标检测时可能造成的漏检现象,提高检测精度。
进一步地,在对当前帧局部图像进行目标检测之后,本申请将对当前帧局部图像中的动态目标进行跟踪。在一具体实施方式中,在本申请提供的目标检测方法在实现步骤S10-S60的基础上,对动态目标的跟踪过程可通过以下步骤S70-S80实现。
S70:将对局部图像进行目标检测所获取的目标检测框内的图像与二值化检测图像的对应区域内的图像进行互相关运算。选择相关性大于预设相关性阈值或相关性最大的预定数量的目标检测框作为最佳目标检测框。最佳目标检测框在本实施例中指的是当前帧局部图像中的所有动态目标的检测框,而动态目标表示该目标在当前帧图像以后的图像帧中的位置相对于当前帧图像中的位置有所改变。本实施例对当前帧局部图像进行检测所获取的目标检测框包括静态目标的检测框以及动态目标的检测框,因此需要筛选出当前帧局部图像中动态物体的检测框以为后续对动态目标进行跟踪做准备。进一步地,由于当前帧局部图像中静态目标的检测框可能由于光照等环境因素静态目标检测框内的少量像素值的灰度值可能会发生变化,因此对应二值化检测图像中该静态目标检测框内的部分像素会在二值化图像中呈亮点。对于此类目标检测框,本申请也将其排除并不对其进行目标跟踪。
本实施例利用基于灰度的图像匹配算法选取最佳目标检测框。现有的图像匹配算法如平均绝对差算法(MAD)、绝对误差和算法(SAD)、误差平方和算法(SSD)、平均误差平方和算法(MSD)、归一化积相关算法(NCC)、序贯相似性检测算法(SSDA)以及hadamard变换算法(SATD)均可实现对目标检测框内的图像与二值化检测图像的图像匹配。可选地,本实施例利用MAD将目标检测框内的图像与二值化检测图像进行图像匹配。具体匹配步骤如下:
在二值化检测图像中,以(i,j)为左上角,取分辨率为M×N的子图,计算其与目标检测框内图像的相似度,遍历整个二值化检测图像,在所有能够取到的子图中,找到与目标检测框内图像最相似的子图作为最终匹配结果。
MAD算法的相似性测度公式如下:
其中,1≤i≤m-M+1,1≤j≤n-N+1
显然,平均绝对差D(i,j)越小,表明相关性越大,越相似。找到一个最小的Dmin(i,j),若Dmin(i,j)小于预设阈值,则认为其是当前帧局部图像中的动态目标的检测框,需对其进行目标跟踪。反之,则无需对其进行跟踪。通过上述操作,能从所有目标检测框中筛选出动态目标的检测框并获取其在当前帧图像的位置信息。
S80:在后续图像帧中对最佳目标检测框内的目标进行跟踪。
本实施例在步骤S70获取最佳目标检测框以及其在当前帧图像的位置信息之后,即可对视频流进行该目标的持续跟踪。现有的目标跟踪算法包括KCF,TLD、Struck、CSK、SiamMask,STC等等。示例性地,利用KCF实现对当前帧图像的动态目标进行持续跟踪。KCF(Kernelized Correlation Filter)算法是由Henriques等提出的一种快速训练、快速检测的高速目标跟踪方法,其核心思想是利用跟踪目标区域的循环移位构造大量的训练样本,以这些样本训练分类器。通过计算分类器得到的目标候选区域与跟踪目标之间的相似性,选取具有最大相似性的候选区域作为新的跟踪目标,此过程迭代进行直到完成目标跟踪。为了提高算法效率,将循环矩阵应用于岭回归,用DFT进行对角化实现了处理转换的快速算法,使得岭回归在傅立叶域得到了简单的解析解,大大降低了算法的复杂度。同时,在线性回归的基础上引入核函数,结合循环矩阵推导出一种快速的核函数计算方法。在单通道图像的基础上,推导了多通道图像的模型求解。具体地,KCF算法预先通过对当前帧图像待跟踪目标循环移位构造正样本和负样本,用于训练分类器。然后利用预先训练好的分类器对包含待跟踪目标信息的当前帧图像进行跟踪。其中,待跟踪目标的信息包括待跟踪目标在当前帧图像中的位置和大小。
训练分类器的目的是找到函数
f(z)=wTz,
使得误差函数最小,其中,误差函数为
即求得最优的w,使得误差函数最小。其中,z表示视频图像帧的候选区域。训练样本循环矩阵x=[x0,x1,…,xn-1]T,f(xi)表示回归函数,w表示回归函数的权重系数,λ用于表示系统的结构复杂性,n为训练样本数量,xi为训练样本,yi为训练样本类别值。
本实施例在对局部图像进行目标检测并获取每个目标的检测框位置和大小之后,通过对局部图像的目标检测框内的图像与二值化检测图像的对应区域内的图像进行互相关运算,从而获取目标在当前帧图像中的位置信息并判断该目标是否为动态目标,若是动态目标,则需利用目标跟踪算法对其进行持续跟踪。上述过程基于二值化检测图像利用图像匹配算法能够更加精确地判断出动态目标以及获取动态目标的位置信息,从而能够提高目标跟踪的精确性。
参阅图3,图3为本申请提供的目标检测跟踪装置一实施例的结构示意图。该装置300包括:
处理器301。
存储器302,耦接处理器301,用于存储一个或多个程序。
当一个或多个程序被处理器301执行,使得处理器301实现上述目标检测跟踪方法。在一具体实施方式中,目标检测跟踪装置300为一云台摄像机,云台摄像机为带有云台的摄像机。云台摄像机利用云台能够在水平和垂直方向上转动,从而使得云台摄像机能够从多个角度进行摄像。云台摄像机可安设于校园各处待监控区域从而使得云台摄像机实时获取到校园监控视频流,并且该云台摄像机的处理器301通过运行存储器302内储存的一个或者多个程序实现上述目标检测跟踪方法。当监控区域出现打斗或者可疑人物时,云台摄像机及时精准地检测出可疑人物的信息并传至校园监控室内,以便安保人员能够及时作出防范措施保证校园安全。
参见图4,图4为本申请提供一种存储介质的结构示意图。该存储介质400存储有程序数据401,该程序数据401被执行时可实现如上的目标检测跟踪方法。具体地,上述具有存储功能的存储介质400可以是个人计算机、服务器、网络设备,或者U盘等其中的一种。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (11)

1.一种目标检测跟踪方法,其特征在于,所述方法包括:
获取当前帧图像;
对所述当前帧图像进行背景消除,以获得二值化检测图像,其中在所述二值化检测图像中,静态背景区域和动态前景区域分别由不同的像素值表示;
利用所述二值化检测图像对靶标图像进行标定,其中所述靶标图像设置有以阵列方式排布的多个坐标点,所述坐标点的排布密度小于所述二值化检测图像内的像素点的排布密度;
根据所述坐标点在所述靶标图像中的坐标对由所述动态前景区域进行标定的坐标点进行聚类,以形成多个聚类类别;
根据所述聚类类别对所述当前帧图像进行局部图像提取;
对提取的局部图像进行目标检测;
所述利用所述二值化检测图像对靶标图像进行标定,包括:
获取所述靶标图像;
将所述靶标图像与所述二值化检测图像逐像素进行逻辑与运算,利用所述二值化检测图像的部分像素点对所述靶标图像进行标定。
2.根据权利要求1所述的方法,其特征在于,所述对所述当前帧图像进行背景消除的步骤包括:
将所述当前帧图像分割成多个子图块;
对所述多个子图块分别进行背景消除,以获得多个二值化图块;
将所述二值化图块进行拼接,以获取所述二值化检测图像。
3.根据权利要求1所述的方法,其特征在于,对由所述动态前景区域进行标定的坐标点进行聚类所形成的类别数量为K/3的取整值,其中K为对所述当前帧图像的长度和/或宽度进行分割的分割次数。
4.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
若能够框选到某一所述聚类类别内的全部所述坐标点的最小外接矩形框的面积大于预设的提取框的面积,则对所述某一聚类类别内的所述坐标点进行再次聚类。
5.根据权利要求4所述的方法,其特征在于,再次聚类所形成的类别数量为的取整值,其中SA为所述最小外接矩形框的面积,SS为所述提取框的面积。
6.根据权利要求1所述的方法,其特征在于,所述根据所述聚类类别对所述当前帧图像进行局部图像提取的步骤包括:
利用能够框选到所述聚类类别内的全部所述坐标点的最小外接矩形框从所述当前帧图像中提取所述局部图像。
7.根据权利要求6所述的方法,其特征在于,所述根据所述聚类类别对所述当前帧图像进行局部图像提取的步骤包括:
若能够框选到所述聚类类别内的全部所述坐标点的最小外接矩形框的面积小于预设的提取框的面积,则利用所述提取框从所述当前帧图像中提取所述局部图像;
所述对提取的所述局部图像进行目标检测的步骤包括:
从对所述局部图像进行目标检测所获取的目标检测框中选择位于所述最小外接矩形框内的目标检测框。
8.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
将对所述局部图像进行目标检测所获取的目标检测框内的图像与所述二值化检测图像的对应区域内的图像进行互相关运算;
选择相关性大于预设相关性阈值或所述相关性最大的预定数量的目标检测框作为最佳目标检测框。
9.根据权利要求8所述的方法,其特征在于,所述方法进一步包括:
在后续图像帧中对所述最佳目标检测框内的目标进行跟踪。
10.一种目标检测跟踪装置,其特征在于,所述装置包括:
处理器;
存储器,耦接所述处理器,用于存储一个或多个程序;
当所述一个或多个程序被所述处理器执行,使得所述处理器实现如权利要求1-9中任一项所述的目标检测跟踪方法。
11.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-9中任一项所述的目标检测跟踪方法。
CN202010130377.4A 2020-02-28 2020-02-28 一种目标检测跟踪方法 Active CN111383244B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010130377.4A CN111383244B (zh) 2020-02-28 2020-02-28 一种目标检测跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010130377.4A CN111383244B (zh) 2020-02-28 2020-02-28 一种目标检测跟踪方法

Publications (2)

Publication Number Publication Date
CN111383244A CN111383244A (zh) 2020-07-07
CN111383244B true CN111383244B (zh) 2023-09-01

Family

ID=71218643

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010130377.4A Active CN111383244B (zh) 2020-02-28 2020-02-28 一种目标检测跟踪方法

Country Status (1)

Country Link
CN (1) CN111383244B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101134B (zh) * 2020-08-24 2024-01-02 深圳市商汤科技有限公司 物体的检测方法及装置、电子设备和存储介质
CN112150512B (zh) * 2020-09-30 2023-12-15 中国科学院上海微系统与信息技术研究所 融合背景差分法和聚类法的弹着点定位方法
CN112991395B (zh) * 2021-04-28 2022-04-15 山东工商学院 一种基于前景条件概率优化尺度和角度的视觉跟踪方法
CN113409360A (zh) * 2021-06-29 2021-09-17 深圳市商汤科技有限公司 高空抛物检测方法和装置、设备及计算机存储介质
CN113611075B (zh) * 2021-07-30 2023-01-24 东风商用车有限公司 牵引车火灾监测方法、装置、设备及可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011185664A (ja) * 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd 対象物検出装置
CN103914855A (zh) * 2014-03-25 2014-07-09 苏州大学 一种运动目标的定位方法及装置
CN106203274A (zh) * 2016-06-29 2016-12-07 长沙慧联智能科技有限公司 一种视频监控中行人实时检测系统及方法
CN106204640A (zh) * 2016-06-29 2016-12-07 长沙慧联智能科技有限公司 一种运动目标检测系统及方法
CN109919975A (zh) * 2019-02-20 2019-06-21 中国人民解放军陆军工程大学 一种基于坐标标定的广域监控运动目标关联方法
CN110751678A (zh) * 2018-12-12 2020-02-04 北京嘀嘀无限科技发展有限公司 运动目标的检测方法、装置和电子设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8159536B2 (en) * 2004-06-14 2012-04-17 Agency For Science, Technology And Research Method for detecting desired objects in a highly dynamic environment by a monitoring system
CN105631455B (zh) * 2014-10-27 2019-07-05 阿里巴巴集团控股有限公司 一种图像主体提取方法及系统
US10229340B2 (en) * 2016-02-24 2019-03-12 Kodak Alaris Inc. System and method for coarse-to-fine video object segmentation and re-composition
US10496695B2 (en) * 2016-06-06 2019-12-03 Think-Cell Software Gmbh Automated data extraction from scatter plot images
US10796142B2 (en) * 2017-08-28 2020-10-06 Nutech Ventures Systems for tracking individual animals in a group-housed environment
CN108230359B (zh) * 2017-11-12 2021-01-26 北京市商汤科技开发有限公司 目标检测方法和装置、训练方法、电子设备、程序和介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011185664A (ja) * 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd 対象物検出装置
CN103914855A (zh) * 2014-03-25 2014-07-09 苏州大学 一种运动目标的定位方法及装置
CN106203274A (zh) * 2016-06-29 2016-12-07 长沙慧联智能科技有限公司 一种视频监控中行人实时检测系统及方法
CN106204640A (zh) * 2016-06-29 2016-12-07 长沙慧联智能科技有限公司 一种运动目标检测系统及方法
CN110751678A (zh) * 2018-12-12 2020-02-04 北京嘀嘀无限科技发展有限公司 运动目标的检测方法、装置和电子设备
CN109919975A (zh) * 2019-02-20 2019-06-21 中国人民解放军陆军工程大学 一种基于坐标标定的广域监控运动目标关联方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张正华 ; 许晔 ; 苏权 ; 谢敏 ; .基于背景差分和混合帧差的运动目标检测.无线电工程.2012,(08),14-17. *

Also Published As

Publication number Publication date
CN111383244A (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
CN111383244B (zh) 一种目标检测跟踪方法
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN109522908B (zh) 基于区域标签融合的图像显著性检测方法
CN104933414B (zh) 一种基于wld-top的活体人脸检测方法
US20180018503A1 (en) Method, terminal, and storage medium for tracking facial critical area
CN108121991B (zh) 一种基于边缘候选区域提取的深度学习舰船目标检测方法
US20230289979A1 (en) A method for video moving object detection based on relative statistical characteristics of image pixels
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
US11288544B2 (en) Method, system and apparatus for generating training samples for matching objects in a sequence of images
CN106951870B (zh) 主动视觉注意的监控视频显著事件智能检测预警方法
CN108197604A (zh) 基于嵌入式设备的快速人脸定位跟踪方法
CN105740758A (zh) 基于深度学习的互联网视频人脸识别方法
GB2532948A (en) Objection recognition in a 3D scene
CN109918971B (zh) 监控视频中人数检测方法及装置
WO2017181892A1 (zh) 前景分割方法及装置
WO2011001398A2 (en) Method circuit and system for matching an object or person present within two or more images
Huynh-The et al. NIC: A robust background extraction algorithm for foreground detection in dynamic scenes
CN109685045A (zh) 一种运动目标视频跟踪方法及系统
CN107578424B (zh) 一种基于时空分类的动态背景差分检测方法、系统及装置
CN111723773A (zh) 遗留物检测方法、装置、电子设备及可读存储介质
Raj et al. Vacant parking lot detection system using random forest classification
Lecca et al. Comprehensive evaluation of image enhancement for unsupervised image description and matching
CN109978916B (zh) 基于灰度图像特征匹配的Vibe运动目标检测方法
CN109299702B (zh) 一种基于深度时空图的人体行为识别方法及系统
CN109740527B (zh) 一种视频帧中图像处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant