CN112184769A - 一种跟踪异常的识别方法、装置及设备 - Google Patents
一种跟踪异常的识别方法、装置及设备 Download PDFInfo
- Publication number
- CN112184769A CN112184769A CN202011031582.1A CN202011031582A CN112184769A CN 112184769 A CN112184769 A CN 112184769A CN 202011031582 A CN202011031582 A CN 202011031582A CN 112184769 A CN112184769 A CN 112184769A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- tracking target
- video image
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
本发明实施例提供了一种跟踪异常的识别方法、装置及设备,方法包括:在跟踪目标位于视频图像的边缘区域时,提取跟踪目标的特征,作为第一特征;在跟踪目标由边缘区域移动至视频图像的非边缘区域时,提取跟踪目标的特征,作为第二特征;若第一特征与第二特征匹配不成功,则表示在边缘区域进行特征提取时发生了目标混淆;可见,本方案识别出了跟踪异常的情况。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种跟踪异常的识别方法、装置及设备。
背景技术
一些场景中,需要对监控目标进行跟踪。比如,一些无人超市或者无人商场中,监控设备采集视频图像,需要对视频图像中的每名顾客进行跟踪,以确定顾客的购物情况。
一般来说,当人员位于视频图像边缘时,容易跟踪出错。例如,人员A移动出视频图像的同时,人员B移动进入视频图像,常规的跟踪算法会将人员A和人员B误认为是同一个人。因此,亟需一种对跟踪异常进行识别的方案。
发明内容
本发明实施例的目的在于提供一种跟踪异常的识别方法、装置及设备,以识别跟踪异常的情况。
为达到上述目的,本发明实施例提供一种跟踪异常的识别方法,包括:
在视频图像中识别跟踪目标,并对所述跟踪目标进行跟踪;
在所述跟踪目标位于视频图像的边缘区域时,提取所述跟踪目标的特征,作为第一特征;
在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域时,提取所述跟踪目标的特征,作为第二特征;
将所述第一特征与所述第二特征进行匹配,若匹配不成功,确定对所述跟踪目标的跟踪异常。
为达到上述目的,本发明实施例还提供一种跟踪异常的识别方法,包括:
在当前帧视频图像中识别跟踪目标;
将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述当前帧视频图像之前的视频图像中进行目标跟踪得到的;
基于所述匹配结果,确定所述跟踪目标的干扰目标;
在所述当前帧视频图像之后的视频图像中继续对所述跟踪目标进行跟踪,至未确定出所述跟踪目标的干扰目标的情况下,提取所述跟踪目标的特征,作为第三特征;
将所述第三特征与预先保存的所述跟踪目标的历史特征进行匹配;
若匹配不成功,确定所述干扰目标与所述跟踪目标产生混淆。
为达到上述目的,本发明实施例还提供一种跟踪异常的识别装置,包括:
第一识别跟踪模块,用于在视频图像中识别跟踪目标,并对所述跟踪目标进行跟踪;
第一提取模块,用于在所述跟踪目标位于视频图像的边缘区域时,提取所述跟踪目标的特征,作为第一特征;
第二提取模块,用于在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域时,提取所述跟踪目标的特征,作为第二特征;
第一匹配模块,用于将所述第一特征与所述第二特征进行匹配,若匹配不成功,触发第一确定模块;
第一确定模块,用于确定对所述跟踪目标的跟踪异常。
为达到上述目的,本发明实施例还提供一种跟踪异常的识别装置,包括:
识别模块,用于在当前帧视频图像中识别跟踪目标;
第二匹配模块,用于将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述当前帧视频图像之前的视频图像中进行目标跟踪得到的;
第二确定模块,用于基于所述匹配结果,确定所述跟踪目标的干扰目标;
第三提取模块,用于在所述当前帧视频图像之后的视频图像中继续对所述跟踪目标进行跟踪,至未确定出所述跟踪目标的干扰目标的情况下,提取所述跟踪目标的特征,作为第三特征;
第三匹配模块,用于将所述第三特征与预先保存的所述跟踪目标的历史特征进行匹配;若匹配不成功,触发第三确定模块;
第三确定模块,用于确定所述干扰目标与所述跟踪目标产生混淆。
为达到上述目的,本发明实施例还提供一种电子设备,包括处理器和存储器;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任意一种跟踪异常的识别方法。
应用本发明所示实施例,在跟踪目标位于视频图像的边缘区域时,提取跟踪目标的特征,作为第一特征;在跟踪目标由边缘区域移动至视频图像的非边缘区域时,提取跟踪目标的特征,作为第二特征;若第一特征与第二特征匹配不成功,则表示在边缘区域进行特征提取时发生了目标混淆;可见,本方案识别出了跟踪异常的情况。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的跟踪异常的识别方法的第一种流程示意图;
图2a-2f为本发明实施例提供的多种视频图像示意图;
图3为本发明实施例提供的跟踪异常的识别方法的第二种流程示意图;
图4为本发明实施例提供的跟踪异常的识别方法的第三种流程示意图;
图5为本发明实施例提供的跟踪异常的识别方法的第四种流程示意图;
图6为本发明实施例提供的一种跟踪异常的识别装置的结构示意图;
图7为本发明实施例提供的另一种跟踪异常的识别装置的结构示意图;
图8为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了达到上述目的,本发明实施例提供了一种跟踪异常的识别方法、装置及设备,该方法及装置可以应用于各种电子设备,具体不做限定。下面首先对跟踪异常的识别方法进行详细说明。
图1为本发明实施例提供的跟踪异常的识别方法的第一种流程示意图,包括:
S101:在视频图像中识别跟踪目标,并对跟踪目标进行跟踪。
举例来说,在一些无人超市或者无人商场等购物场景中,跟踪目标可以为顾客。或者,其他场景中,跟踪目标也可以为其他类型的人员或者车辆等,具体场景及跟踪目标的类型不做限定。
举例来说,可以采用目标跟踪算法,识别视频图像中的目标并对其进行跟踪。目标跟踪算法可以为均值漂移算法、或者基于卡尔曼滤波的目标跟踪算法、或者基于粒子滤波的目标跟踪算法、或者基于对运动目标建模的跟踪算法等等,具体不做限定。
如果在视频图像中识别出多个目标,可以分别对每个目标进行跟踪,对每个目标的处理流程类似,本发明实施例中仅针对一个目标的处理流程进行说明,为了方便描述,将这一个目标称为跟踪目标。
S102:在跟踪目标位于视频图像的边缘区域时,提取跟踪目标的特征,作为第一特征。
参考图2a所示,可以将视频图像划分为边缘区域和非边缘区域。或者,参考图2b所示,可以将视频图像划分为三个区域:边缘区域、内层区域、以及边缘区域与内层区域之间的中层区域,内层区域和中层区域可以统称为非边缘区域。各区域的宽度、高度等可以根据实际情况设定,具体不做限定。
一种情况下,确定跟踪目标所在的图像区域,可以包括:确定跟踪目标的识别框中距离图像边缘最近的一条边所在的区域,作为跟踪目标所在的区域。或者,其他情况下,也可以确定跟踪目标的识别框中距离图像边缘最远的一条边所在的区域,作为跟踪目标所在的区域。或者,其他情况下,也可以确定跟踪目标的识别框中心线所在的区域,作为跟踪目标所在的区域。
举例来说,本实施例中涉及到的特征提取可以采用如下方式:通过卷积神经网络识别图像中目标所在的区域,并提取出该区域的特征向量。或者也可以采用其他特征提取算法,具体不做限定。
S103:在跟踪目标由边缘区域移动至视频图像的非边缘区域时,提取跟踪目标的特征,作为第二特征。
参考图2c所示,跟踪目标由视频图像的边缘区域向非边缘区域移动,移动至非边缘区域时,提取跟踪目标的特征,为了区分描述,将跟踪目标位于边缘区域时提取的特征称为第一特征,将跟踪目标位于非边缘区域时提取的特征称为第二特征。
S104:将第一特征与第二特征进行匹配,若匹配不成功,执行S105。若匹配成功,表示未出现跟踪异常的情况。
S105:确定对跟踪目标的跟踪异常。
当跟踪目标位于视频图像的边缘区域时,容易跟踪出错。例如,人员A移动出视频图像的同时,人员B移动进入视频图像,常规的跟踪算法会将这两个人员误认为是同一个人。在视频图像中进行目标跟踪时,通常会为目标分配标识,以标识哪些目标为同一个目标,哪些目标是不同的目标。假设为人员A分配了标识1,人员A移动出视频图像且人员B移动进入视频图像时,不会为人员B分配标识,而是将标识1继续作为人员B的标识。
如果是在无人超市或者无人商场等购物场景,对顾客进行跟踪时产生了混淆,会错误地确定顾客的购物情况,带来较大的不便。如果是其他需要进行目标跟踪的场景,各跟踪目标之间产生了混淆,也会造成较大的不便。
但本发明所示实施例中,假设在边缘区域进行特征提取时产生了混淆,延续上述例子,假设人员A移动出视频图像的同时,人员B移动进入视频图像,假设人员A为跟踪目标,人员A位于视频图像的边缘区域时,对人员A进行特征提取,S102中提取的第一特征为人员A的特征。然后对人员A与人员B的跟踪出现了混淆,错将人员B认作人员A,人员B由边缘区域移动至非边缘区域时,对人员B进行特征提取,S103中提取的第二特征为人员B的特征,这样,第一特征和第二特征匹配不成功,及时发现了跟踪异常的情况。
如上所述,可以将视频图像划分为三个区域:边缘区域、内层区域、以及中层区域;一种实施方式中,S103可以包括:在所述跟踪目标由所述边缘区域移动至视频图像的中层区域时,提取所述跟踪目标的特征,作为第二特征。本实施方式中,跟踪目标到达中层区域时进行特征提取及特征匹配,相比于跟踪目标到达内层区域时再进行特征提取及特征匹配,能更及时地发现跟踪异常的情况。
一种实施方式中,可以在跟踪目标由边缘区域移动至视频图像的非边缘区域的过程中,确定跟踪目标的干扰目标;并在第一特征与第二特征匹配不成功的情况下,确定干扰目标与跟踪目标产生混淆。
本发明所示实施例中,在多帧连续的视频图像中对目标进行跟踪;假设第N帧视频图像中,跟踪目标位于边缘区域,在第N帧视频图像中提取跟踪目标的特征,作为第一特征;第N+M帧图像中,跟踪目标移动至非边缘区域,在第N+M帧视频图像中提取跟踪目标的特征,作为第二特征;在第N—N+M帧图像中,确定跟踪目标的干扰目标。N和M均为正整数。
本实施方式中,确定出跟踪目标的干扰目标后,并不立即确定干扰目标与跟踪目标产生混淆,而是继续对跟踪目标进行跟踪,直至跟踪目标移动至视频图像的非边缘区域时,确定对跟踪目标的跟踪异常后,再确定干扰目标与跟踪目标产生混淆。这样,减少了误判的情况,提高了识别跟踪异常的准确性。
一种实施方式中,确定干扰目标的方式可以包括:将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域的过程中,对视频图像中的目标进行跟踪得到的;基于所述匹配结果,确定所述跟踪目标的干扰目标。
如上所述,如果视频图像中存在多个目标,可以分别对这多个目标进行跟踪,这样便得到多条轨迹线。一条轨迹线包括同一目标的多个轨迹点,以同一个目标为例来说,针对每帧视频图像,在该帧视频图像中识别该目标,得到该目标的一个识别框;这一个识别框可以作为该目标的一个轨迹点,该目标在连续多帧视频图像中的识别框组合形成该目标的轨迹线。
将跟踪目标与轨迹线对应的目标进行匹配可以为:将跟踪目标在单帧视频图像中的检测结果与轨迹线中的一个轨迹点,也就是一个识别框中的目标进行匹配。比如,该一个轨迹点可以为当前帧图像中预测得到的轨迹点,或者当前帧图像之前的最后一个轨迹点,或者倒数第二个轨迹点,或者轨迹中心的轨迹点,等等,具体不做限定。这里所说的匹配可以包括:匹配位置、形状、外观,等等,具体匹配情况不做限定。
上述各条轨迹线中包括第一类轨迹线和第二类轨迹线,所述第一类轨迹线为:对所述跟踪目标进行跟踪得到的轨迹线,所述第二类轨迹线为:对除所述跟踪目标以外的其他目标进行跟踪得到的轨迹线。如上所述,在视频图像中进行目标跟踪时,通常会为目标分配标识,如果某条轨迹线对应的标识与跟踪目标的标识相同,则该条轨迹线为第一类轨迹线,否则为第二类轨迹线。
可以计算所述第一类轨迹线对应的目标与所述跟踪目标的匹配度,作为第一匹配度;分别计算每条所述第二类轨迹线对应的目标与所述跟踪目标的匹配度,作为第二匹配度;针对每个第二匹配度,判断该第二匹配度与所述第一匹配度是否相似;如果相似,将该第二匹配度对应的目标确定为所述跟踪目标的干扰目标。
这里所说的相似可以为:差值小于预设阈值,阈值的具体数值不做限定。假设视频图像中存在三个目标:目标1、目标2和目标3,假设跟踪得到三条轨迹线:轨迹线1、轨迹线2和轨迹线3,其中,轨迹线1为目标1的轨迹线,轨迹线2为目标2的轨迹线,轨迹线3为目标3的轨迹线。计算这三个目标与这三条轨迹线的匹配度,假设计算结果如下表1所示:
表1
轨迹线1 | 轨迹线2 | 轨迹线3 | |
目标1 | 0.9 | 0.9 | 0.1 |
目标2 | 0.8 | 0.8 | 0.1 |
目标3 | 0.1 | 0.1 | 0.9 |
假设匹配度的取值范围为0-1,分数越高,表示匹配度较高。假设目标1为跟踪目标,轨迹线1为第一类轨迹线,轨迹线2和轨迹线3为第二类轨迹线,由表1可知,第一匹配度为0.9,轨迹线2对应的第二匹配度为0.9,轨迹线3对应的第二匹配度为0.1,轨迹线2对应的第二匹配度与第一匹配度相似,则轨迹线2对应的目标,也就是目标2为跟踪目标的干扰目标。
或者,另一种实施方式中,确定干扰目标的方式可以包括:如果跟踪目标的识别框与其他目标的识别框存在重叠,可以将该重叠识别框对应的目标确定为跟踪目标的干扰目标。
假设视频图像中存在三个目标:目标1、目标2和目标3,假设目标1为跟踪目标,目标1的识别框与目标2的识别框存在重叠,则将目标2确定为跟踪目标的干扰目标。
本实施方式中,不仅能够识别跟踪异常的情况,而且能够进一步确定跟踪目标是与哪个目标产生了混淆,便于纠正。
如上所述,在视频图像中进行目标跟踪时,通常会为目标分配标识,这种情况下,确定干扰目标与跟踪目标产生混淆后,可以将干扰目标的标识与跟踪目标的标识进行对调。
参考图2d所示,假设视频图像中存在两个目标:目标1和目标2,为目标1分配的标识为1,为目标2分配的标识为2,图2d中的箭头分别表示目标1的移动轨迹和目标2的移动轨迹。假设目标1为跟踪目标,假设目标1移动至视频图像的边缘区域时,提取目标1的特征,作为第一特征。而后目标2也移动至视频图像的边缘区域,目标1与目标2产生了混淆,跟踪算法误认为目标1的标识为2,目标2的标识为1,误将目标2作为跟踪目标,跟踪目标由边缘区域移动至非边缘区域时,提取目标2的特征,作为第二特征,第一特征与第二特征匹配不成功。采用上述实施方式确定目标2为目标1的干扰目标,将目标1和目标2的标识进行对调。也就是对跟踪错误的情况进行了纠正。
延续上述例子,假设人员A移动出视频图像的同时,人员B移动进入视频图像,假设人员A为跟踪目标,人员A位于视频图像的边缘区域时,对人员A进行特征提取,得到的第一特征为人员A的特征。然后对人员A与人员B的跟踪出现了混淆,错将人员B认作人员A,人员B由边缘区域移动至非边缘区域时,对人员B进行特征提取,得到的第二特征为人员B的特征,这样,第一特征和第二特征匹配不成功,及时发现了跟踪异常的情况。进一步的,确定人员A的干扰目标为人员B,假设此时人员A已移动出视频图像,不存在人员A的标识,则将人员B确定为新进入视频图像的跟踪目标,为其分配新的标识。
如上所述,参考图2b所示,可以将视频图像划分为三个区域:边缘区域、内层区域、以及边缘区域与内层区域之间的中层区域,一种实施方式中,可以针对这三种不同的区域,分别设定三种不同的处理策略:
边缘区域的处理策略:边缘区域中检测到目标时,提取目标的特征,将该特征作为历史模板进行存储。如果之前已存储了该目标的历史模板,则将所提取的特征覆盖之前存储的历史模板。
中层区域的处理策略:目标到达中层区域时,提取目标的特征,将该特征与目标的历史模板进行匹配,若匹配成功,则表示未出现跟踪异常的情况,若匹配不成功,则表示出现了跟踪异常的情况。
内层区域的处理策略:目标到达内层区域时,可以删除所存储的该目标的历史模板。
举例来说,在无人超市、无人商场等购物场景中,一般设置俯视相机,这些场景中,跟踪错误通常发生在图像边缘的区域。跟踪错误包括如下几种情况:
1、参考图2e所示,ID(Identity document,身份标识)为43的目标1走出相机视场范围,同时目标2进入相机视场范围,新进入相机视场范围的目标2带走了ID43。图2e中示出了两个目标的真实轨迹和识别出的错误轨迹。
2、参考图2f所示,ID为89的目标1停留在视场范围的边缘,ID为83的目标2靠近ID为89的跟踪目标时,对二者的跟踪发生了混淆,二者的ID进行了错误的交换。图2e中示出了目标2的真实轨迹。
针对第一种跟踪错误的情况,如果采用本发明图1所示实施例,在ID为43的目标1位于视频图像的边缘区域时,提取目标1的特征,作为第一特征;然后出现跟踪错误,错将新进入相机视场范围的目标2认作ID为43的跟踪目标,在目标2由边缘区域移动至视频图像的非边缘区域时,提取目标2的特征,作为第二特征;将第一特征与第二特征进行匹配,第一特征为目标1的特征,第二特征为目标2的特征,二者匹配不成功,确定目标跟踪异常。
此外,这种情况下,还可以确定跟踪目标的干扰目标,目标1为跟踪目标,目标2为目标1的干扰目标,原跟踪目标(目标1)已经走出相机视场范围,可以为干扰目标(目标2)分配新的ID,并对干扰目标进行跟踪。
针对第二种跟踪错误的情况,如果采用本发明图1所示实施例,在ID为89的跟踪目标位于视频图像的边缘区域时,提取ID为89的跟踪目标的特征,作为第一特征;然后出现跟踪混淆,错将ID为83的跟踪目标认作ID为89的跟踪目标,在ID为83的跟踪目标由边缘区域移动至视频图像的非边缘区域时,提取到第二特征;将第一特征与第二特征进行匹配,第一特征为ID为89的跟踪目标的特征,第二特征为ID为83的跟踪目标的特征,二者匹配不成功,确定对跟踪目标的跟踪异常。
此外,这种情况下,还可以确定跟踪目标的干扰目标,跟踪目标和干扰目标均未走出相机视场范围,将二者的ID对调,并继续对二者进行跟踪。
应用本发明图1所示实施例,在跟踪目标位于视频图像的边缘区域时,提取跟踪目标的特征,作为第一特征;在跟踪目标由边缘区域移动至视频图像的非边缘区域时,提取跟踪目标的特征,作为第二特征;若第一特征与第二特征匹配不成功,则表示在边缘区域进行特征提取时发生了目标混淆;可见,本方案识别出了跟踪异常的情况,尤其是能够识别视频图像边缘跟踪出错的情况。
图3为本发明实施例提供的跟踪异常的识别方法的第二种流程示意图,包括:
S301:在视频图像中识别跟踪目标,并对跟踪目标进行跟踪。
举例来说,可以采用目标跟踪算法,识别视频图像中的目标并对其进行跟踪。目标跟踪算法可以为均值漂移算法、或者基于卡尔曼滤波的目标跟踪算法、或者基于粒子滤波的目标跟踪算法、或者基于对运动目标建模的跟踪算法等等,具体不做限定。
如果在视频图像中识别出多个目标,可以分别对每个目标进行跟踪,对每个目标的处理流程类似,本发明实施例中仅针对一个目标的处理流程进行说明,为了方便描述,将这一个目标称为跟踪目标。
S302:在跟踪目标位于视频图像的边缘区域时,提取跟踪目标的特征,作为第一特征。
参考图2a所示,可以将视频图像划分为边缘区域和非边缘区域。或者,参考图2b所示,可以将视频图像划分为三个区域:边缘区域、内层区域、以及边缘区域与内层区域之间的中层区域,内层区域和中层区域可以统称为非边缘区域。各区域的宽度、高度等可以根据实际情况设定,具体不做限定。
S303:在跟踪目标由边缘区域移动至视频图像的非边缘区域的过程中,确定跟踪目标的干扰目标。
图1所示实施例中已经介绍了确定干扰目标的多种方式,这里不再赘述。
S304:在跟踪目标由边缘区域移动至视频图像的非边缘区域时,提取跟踪目标的特征,作为第二特征。
如上所述,可以将视频图像划分为三个区域:边缘区域、内层区域、以及中层区域;一种实施方式中,S304可以包括:在所述跟踪目标由所述边缘区域移动至视频图像的中层区域时,提取所述跟踪目标的特征,作为第二特征。本实施方式中,跟踪目标到达中层区域时进行特征提取及特征匹配,相比于跟踪目标到达内层区域时再进行特征提取及特征匹配,能更及时地发现跟踪异常的情况。
本发明所示实施例中,在多帧连续的视频图像中对目标进行跟踪;假设第N帧视频图像中,跟踪目标位于边缘区域,在第N帧视频图像中提取跟踪目标的特征,作为第一特征;第N+M帧图像中,跟踪目标移动至非边缘区域,在第N+M帧视频图像中提取跟踪目标的特征,作为第二特征;在第N—N+M帧图像中,确定跟踪目标的干扰目标。N和M均为正整数。
S305:将第一特征与第二特征进行匹配,若匹配不成功,执行S306。若匹配成功,表示未出现跟踪异常的情况。
S306:确定对跟踪目标的跟踪异常,并确定干扰目标与跟踪目标产生混淆。
本实施例中,不仅能够识别跟踪异常的情况,而且能够进一步确定跟踪目标是与哪个目标产生了混淆,便于纠正。并且确定出跟踪目标的干扰目标后,并不立即确定干扰目标与跟踪目标产生混淆,而是继续对跟踪目标进行跟踪,直至跟踪目标移动至视频图像的非边缘区域时,确定对跟踪目标的跟踪异常后,再确定干扰目标与跟踪目标产生混淆。这样,减少了误判的情况,提高了识别跟踪异常的准确性。
如上所述,在视频图像中进行目标跟踪时,通常会为目标分配标识,这种情况下,确定干扰目标与跟踪目标产生混淆后,可以将干扰目标的标识与跟踪目标的标识进行对调。
应用本发明图3所示实施例,第一方面,识别出了跟踪异常的情况,尤其是能够识别视频图像边缘跟踪出错的情况。第二方面,能够进一步确定跟踪目标是与哪个目标产生了混淆,便于纠正。第三方面,确定出跟踪目标的干扰目标后,并不立即确定干扰目标与跟踪目标产生混淆,而是继续对跟踪目标进行跟踪,直至跟踪目标移动至视频图像的非边缘区域时,确定对跟踪目标的跟踪异常后,再确定干扰目标与跟踪目标产生混淆。这样,减少了误判的情况,提高了识别跟踪异常的准确性。
图4为本发明实施例提供的跟踪异常的识别方法的第三种流程示意图,包括:
S401:在当前帧视频图像中识别跟踪目标。
举例来说,在一些无人超市或者无人商场等购物场景中,跟踪目标可以为顾客。或者,其他场景中,跟踪目标也可以为其他类型的人员或者车辆等,具体场景及跟踪目标的类型不做限定。
举例来说,可以采用目标跟踪算法,识别视频图像中的目标并对其进行跟踪。目标跟踪算法可以为均值漂移算法、或者基于卡尔曼滤波的目标跟踪算法、或者基于粒子滤波的目标跟踪算法、或者基于对运动目标建模的跟踪算法等等,具体不做限定。
如果在视频图像中识别出多个目标,可以分别对每个目标进行跟踪,对每个目标的处理流程类似,本发明实施例中仅针对一个目标的处理流程进行说明,为了方便描述,将这一个目标称为跟踪目标。
S402:将跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述当前帧视频图像之前的视频图像中进行目标跟踪得到的。
S403:基于该匹配结果,确定跟踪目标的干扰目标。
如上所述,如果视频图像中存在多个目标,可以分别对这多个目标进行跟踪,这样便得到多条轨迹线。一条轨迹线包括同一目标的多个轨迹点,以同一个目标为例来说,针对每帧视频图像,在该帧视频图像中识别该目标,得到该目标的一个识别框;这一个识别框可以作为该目标的一个轨迹点,该目标在连续多帧视频图像中的识别框组合形成该目标的轨迹线。
将跟踪目标与轨迹线对应的目标进行匹配可以为:将跟踪目标在单帧视频图像中的检测结果与轨迹线中的一个轨迹点,也就是一个识别框中的目标进行匹配。比如,该一个轨迹点可以为当前帧图像中预测得到的轨迹点,或者当前帧图像之前的最后一个轨迹点,或者倒数第二个轨迹点,或者轨迹中心的轨迹点,等等,具体不做限定。这里所说的匹配可以包括:匹配位置、形状、外观,等等,具体匹配情况不做限定。
一种实施方式中,上述各条轨迹线中包括第一类轨迹线和第二类轨迹线,所述第一类轨迹线为:对所述跟踪目标进行跟踪得到的轨迹线,所述第二类轨迹线为:对除所述跟踪目标以外的其他目标进行跟踪得到的轨迹线。如上所述,在视频图像中进行目标跟踪时,通常会为目标分配标识,如果某条轨迹线对应的标识与跟踪目标的标识相同,则该条轨迹线为第一类轨迹线,否则为第二类轨迹线。
本实施方式中,S402可以包括:计算所述第一类轨迹线对应的目标与所述跟踪目标的匹配度,作为第一匹配度;分别计算每条所述第二类轨迹线对应的目标与所述跟踪目标的匹配度,作为第二匹配度;S403可以包括:针对每个第二匹配度,判断该第二匹配度与所述第一匹配度是否相似;如果相似,将该第二匹配度对应的目标确定为所述跟踪目标的干扰目标。
这里所说的相似可以为:差值小于预设阈值,阈值的具体数值不做限定。假设视频图像中存在三个目标:目标1、目标2和目标3,假设跟踪得到三条轨迹线:轨迹线1、轨迹线2和轨迹线3,其中,轨迹线1为目标1的轨迹线,轨迹线2为目标2的轨迹线,轨迹线3为目标3的轨迹线。计算这三个目标与这三条轨迹线的匹配度,假设计算结果如上表1所示。
假设目标1为跟踪目标,轨迹线1为第一类轨迹线,轨迹线2和轨迹线3为第二类轨迹线,由表1可知,第一匹配度为0.9,轨迹线2对应的第二匹配度为0.9,轨迹线3对应的第二匹配度为0.1,轨迹线2对应的第二匹配度与第一匹配度相似,则轨迹线2对应的目标,也就是目标2为跟踪目标的干扰目标。
或者,另一种实施方式中,确定干扰目标的方式可以包括:如果跟踪目标的识别框与其他目标的识别框存在重叠,可以将该重叠识别框对应的目标确定为跟踪目标的干扰目标。
假设视频图像中存在三个目标:目标1、目标2和目标3,假设目标1为跟踪目标,目标1的识别框与目标2的识别框存在重叠,则将目标2确定为跟踪目标的干扰目标。
S404:在当前帧视频图像之后的视频图像中继续对跟踪目标进行跟踪,至未确定出跟踪目标的干扰目标的情况下,提取跟踪目标的特征,作为第三特征。
确定出跟踪目标的干扰目标时,跟踪目标与干扰目标距离较近,互相影响,而且可能存在遮挡、重叠等情况,此时判断是否跟踪异常的准确性较低。而继续对跟踪目标进行跟踪,直至未确定出跟踪目标的干扰目标时,跟踪目标与干扰目标距离较远,不再互相影响,也不存在遮挡、重叠等情况,此时判断是否跟踪异常的准确性较高。可见,图4所示实施例中,确定出跟踪目标的干扰目标后,并不立即纠正,而是继续对跟踪目标进行跟踪,直至未确定出干扰目标的情况下,再判断是否跟踪异常,提高了识别跟踪异常的准确性。
判断是否跟踪异常过程中,提取跟踪目标的特征,为了与其他内容中的特征相区分,将此时提取的特征称为第三特征。
假设当前帧视频图像为第X帧视频图像,假设在第X帧视频图像中确定出跟踪目标的干扰目标,继续对跟踪目标进行跟踪,假设跟踪至第X+Y帧视频图像中,未确定出跟踪目标的干扰目标,在第X+Y帧视频图像中提取跟踪目标的特征,作为第三特征。X和Y均为正整数。
S405:将第三特征与预先保存的跟踪目标的历史特征进行匹配;若匹配成功,表示未出现跟踪异常的情况,若匹配不成功,执行S406。
S406:确定干扰目标与跟踪目标产生混淆。
图4所示实施例中,预先保存了跟踪目标的历史特征。
一种实施方式中,预先保存跟踪目标的历史特征的过程可以包括:在所述当前帧视频图像之前的视频图像中识别跟踪目标,并对所述跟踪目标进行跟踪;在所述跟踪目标位于视频图像的边缘区域时,提取所述跟踪目标的特征,作为所述跟踪目标的历史特征。
参考图2a所示,可以将视频图像划分为边缘区域和非边缘区域。或者,参考图2b所示,可以将视频图像划分为三个区域:边缘区域、内层区域、以及边缘区域与内层区域之间的中层区域,内层区域和中层区域可以统称为非边缘区域。各区域的宽度、高度等可以根据实际情况设定,具体不做限定。
一种情况下,确定跟踪目标所在的图像区域,可以包括:确定跟踪目标的识别框中距离图像边缘最近的一条边所在的区域,作为跟踪目标所在的区域。或者,其他情况下,也可以确定跟踪目标的识别框中距离图像边缘最远的一条边所在的区域,作为跟踪目标所在的区域。或者,其他情况下,也可以确定跟踪目标的识别框中心线所在的区域,作为跟踪目标所在的区域。
一般来说,目标刚进入相机视场范围时,其位于视频图像的边缘区域;也就是说,跟踪目标位于视频图像的边缘区域时,可以理解为目标刚进入相机视场范围,此时进行特征提取,能够及时得到跟踪目标的历史特征。这样,减少了跟踪异常识别过程中,需要进行特征匹配时,还未得到跟踪目标的历史特征的情况,提高了匹配的有效性。
一种实施方式中,在视频图像的边缘区域提取得到跟踪目标的历史特征后,如果提取到的历史特征不理想,比如,位于视频图像边缘区域的跟踪目标清晰度较差,或者存在遮挡、重叠等情况,则提取到的历史特征不理想;这种情况下,在视频图像中对该跟踪目标进行跟踪的过程中,如果某帧视频图像中该跟踪目标清晰度较佳、并且不存在遮挡、重叠等情况,可以重新提取该跟踪目标的特征,覆盖原来的历史特征。这样,既能够及时获取到跟踪目标的历史特征,还能够获取到理想的历史特征,提高匹配的准确性。
或者,另一种实施方式中,在对跟踪目标进行跟踪的过程中,可以在未出现跟踪异常、并且跟踪目标与其他目标不存在遮挡、重叠等情况时,提取跟踪目标的特征,作为跟踪目标的历史特征并进行保存。这种实施方式中,保存的历史特征为干净的历史特征(不包含其他目标的特征),能够提高匹配的准确性。
一种实施方式中,S401之后,可以在当前帧视频图像中,提取跟踪目标的特征,作为第四特征;将第四特征与预先保存的跟踪目标的历史特征进行匹配。若匹配不成功,表示可能存在干扰目标,再执行S402。若匹配成功,表示未确定出干扰目标,不存在跟踪异常的情况。
上面内容中已经对“预先保存的跟踪目标的历史特征的过程”进行了介绍,这里不再赘述。
本实施方式中,第一方面,先将当前帧视频图像中跟踪目标的特征(第四特征)与跟踪目标的历史特征进行匹配,匹配不成功的情况下,再确定跟踪目标的干扰目标,这样,相比于针对每帧图像中的跟踪目标,都确定其干扰目标的方案,减少了计算量。第二方面,本实施方式中,进行了两次特征匹配:先将第四特征与历史特征进行匹配,若匹配不成功,再确定干扰目标,然后继续跟踪至未确定出干扰目标后,再将第三特征与历史特征进行匹配,若仍匹配不成功,确定干扰目标与跟踪目标产生混淆;两次特征匹配,能够减少误判的情况,提高识别跟踪异常的准确性。
应用本发明图4所示实施例,在当前帧视频图像中识别出存在跟踪目标的干扰目标后,在之后的视频图像中继续对跟踪目标进行跟踪,至未确定出跟踪目标的干扰目标的情况下,提取跟踪目标的特征,将该特征与预先保存的跟踪目标的历史特征进行匹配;若匹配不成功,表示干扰目标与跟踪目标产生了混淆;可见,第一方面,本方案识别出了跟踪异常的情况;第二方面,确定出跟踪目标的干扰目标后,并不立即纠正,而是继续对跟踪目标进行跟踪,直至未确定出干扰目标的情况下,再判断是否跟踪异常,提高了识别跟踪异常的准确性。
图5为本发明实施例提供的跟踪异常的识别方法的第四种流程示意图,包括:
S501:在当前帧视频图像中识别跟踪目标,并提取跟踪目标的特征,作为第四特征。
举例来说,可以采用目标跟踪算法,识别视频图像中的目标并对其进行跟踪。目标跟踪算法可以为均值漂移算法、或者基于卡尔曼滤波的目标跟踪算法、或者基于粒子滤波的目标跟踪算法、或者基于对运动目标建模的跟踪算法等等,具体不做限定。
如果在视频图像中识别出多个目标,可以分别对每个目标进行跟踪,对每个目标的处理流程类似,本发明实施例中仅针对一个目标的处理流程进行说明,为了方便描述,将这一个目标称为跟踪目标。
为了与其他内容中的特征相区分,将S501中提取的特征称为第四特征。
S502:将第四特征与预先保存的跟踪目标的历史特征进行匹配;若匹配不成功,执行S503;若匹配成功,表示未出现跟踪异常的情况。
图4实施例中已经对“预先保存的跟踪目标的历史特征的过程”进行了介绍,这里不再赘述。
S503:将跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果;所述各条轨迹线为:在所述当前帧视频图像之前的视频图像中进行目标跟踪得到的。
S504:基于该匹配结果,确定跟踪目标的干扰目标。
图4所示实施例中已经介绍了如何确定干扰目标,这里不再赘述。
S505:在当前帧视频图像之后的视频图像中继续对跟踪目标进行跟踪,至未确定出跟踪目标的干扰目标的情况下,提取跟踪目标的特征,作为第三特征。
S504中确定出跟踪目标的干扰目标时,跟踪目标与干扰目标距离较近,互相影响,而且可能存在遮挡、重叠等情况,此时判断是否跟踪异常的准确性较低。而继续对跟踪目标进行跟踪,直至未确定出干扰目标时,跟踪目标与干扰目标距离较远,不再互相影响,也不存在遮挡、重叠等情况,此时判断是否跟踪异常的准确性较高。可见,图5所示实施例中,确定出跟踪目标的干扰目标后,并不立即纠正,而是继续对跟踪目标进行跟踪,直至未确定出干扰目标的情况下,再判断是否跟踪异常,提高了识别跟踪异常的准确性。
判断是否跟踪异常过程中,提取跟踪目标的特征,为了与其他内容中的特征相区分,将此时提取的特征称为第三特征。
假设当前帧视频图像为第X帧视频图像,假设在第X帧视频图像中确定出跟踪目标的干扰目标,继续对跟踪目标进行跟踪,假设跟踪至第X+Y帧视频图像中,未确定出跟踪目标的干扰目标,在第X+Y帧视频图像中提取跟踪目标的特征,作为第三特征。X和Y均为正整数。
S506:将第三特征与预先保存的跟踪目标的历史特征进行匹配;若匹配不成功,执行S507。
S507:确定干扰目标与跟踪目标产生混淆。
应用本发明图5所示实施例,第一方面,识别出了跟踪异常的情况;第二方面,确定出跟踪目标的干扰目标后,并不立即纠正,而是继续对跟踪目标进行跟踪,直至未确定出干扰目标的情况下,再判断是否跟踪异常,提高了识别跟踪异常的准确性。第三方面,先将当前帧视频图像中跟踪目标的特征(第四特征)与跟踪目标的历史特征进行匹配,匹配不成功的情况下,再确定跟踪目标的干扰目标,这样,相比于针对每帧图像中的跟踪目标,都确定其干扰目标的方案,减少了计算量。第四方面,进行了两次特征匹配,能够减少误判的情况,提高识别跟踪异常的准确性。
与上述方法实施例相对应,本发明实施例提供了一种跟踪异常的识别装置,如图6所示,包括:
第一识别跟踪模块601,用于在视频图像中识别跟踪目标,并对所述跟踪目标进行跟踪;
第一提取模块602,用于在所述跟踪目标位于视频图像的边缘区域时,提取所述跟踪目标的特征,作为第一特征;
第二提取模块603,用于在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域时,提取所述跟踪目标的特征,作为第二特征;
第一匹配模块604,用于将所述第一特征与所述第二特征进行匹配,若匹配不成功,触发第一确定模块605;
第一确定模块605,用于确定对所述跟踪目标的跟踪异常。
一种实施方式中,所述装置还包括:第四确定模块和第五确定模块(图中未示出),其中,
第四确定模块,用于在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域的过程中,确定所述跟踪目标的干扰目标;
第五确定模块,用于在所述第一特征与所述第二特征匹配不成功的情况下,确定所述干扰目标与所述跟踪目标产生混淆。
一种实施方式中,所述第四确定模块,包括:
匹配子模块,用于将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域的过程中,对视频图像中的目标进行跟踪得到的;
确定子模块,用于基于所述匹配结果,确定所述跟踪目标的干扰目标。
一种实施方式中,所述各条轨迹线中包括第一类轨迹线和第二类轨迹线,所述第一类轨迹线为:对所述跟踪目标进行跟踪得到的轨迹线,所述第二类轨迹线为:对除所述跟踪目标以外的其他目标进行跟踪得到的轨迹线;
所述匹配子模块,具体用于:
计算所述第一类轨迹线对应的目标与所述跟踪目标的匹配度,作为第一匹配度;分别计算每条所述第二类轨迹线对应的目标与所述跟踪目标的匹配度,作为第二匹配度;
所述确定子模块,具体用于:
针对每个第二匹配度,判断该第二匹配度与所述第一匹配度是否相似;如果相似,将该第二匹配度对应的目标确定为所述跟踪目标的干扰目标。
一种实施方式中,视频图像分为三个区域:边缘区域、内层区域、以及所述边缘区域与所述内层区域之间的中层区域;
第二提取模块603具体用于:在所述跟踪目标由所述边缘区域移动至视频图像的中层区域时,提取所述跟踪目标的特征,作为第二特征。
应用本发明图6所示实施例,第一方面,识别出了跟踪异常的情况,尤其是能够识别视频图像边缘跟踪出错的情况。第二方面,能够进一步确定跟踪目标是与哪个目标产生了混淆,便于纠正。第三方面,确定出跟踪目标的干扰目标后,并不立即确定干扰目标与跟踪目标产生混淆,而是继续对跟踪目标进行跟踪,直至跟踪目标移动至视频图像的非边缘区域时,确定对跟踪目标的跟踪异常后,再确定干扰目标与跟踪目标产生混淆。这样,减少了误判的情况,提高了识别跟踪异常的准确性。
与上述方法实施例相对应,本发明实施例提供了另一种跟踪异常的识别装置,如图7所示,包括:
识别模块701,用于在当前帧视频图像中识别跟踪目标;
第二匹配模块702,用于将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述当前帧视频图像之前的视频图像中进行目标跟踪得到的;
第二确定模块703,用于基于所述匹配结果,确定所述跟踪目标的干扰目标;
第三提取模块704,用于在所述当前帧视频图像之后的视频图像中继续对所述跟踪目标进行跟踪,至未确定出所述跟踪目标的干扰目标的情况下,提取所述跟踪目标的特征,作为第三特征;
第三匹配模块705,用于将所述第三特征与预先保存的所述跟踪目标的历史特征进行匹配;若匹配不成功,触发第三确定模块706;
第三确定模块706,用于确定所述干扰目标与所述跟踪目标产生混淆。
一种实施方式中,所述各条轨迹线中包括第一类轨迹线和第二类轨迹线,所述第一类轨迹线为:对所述跟踪目标进行跟踪得到的轨迹线,所述第二类轨迹线为:对除所述跟踪目标以外的其他目标进行跟踪得到的轨迹线;
第二匹配模块702,具体用于:
计算所述第一类轨迹线对应的目标与所述跟踪目标的匹配度,作为第一匹配度;分别计算每条所述第二类轨迹线对应的目标与所述跟踪目标的匹配度,作为第二匹配度;
第二确定模块703,具体用于:
针对每个第二匹配度,判断该第二匹配度与所述第一匹配度是否相似;如果相似,将该第二匹配度对应的目标确定为所述跟踪目标的干扰目标。
一种实施方式中,所述装置还包括:第四提取模块和第四匹配模块(图中未示出)其中,
第四提取模块,用于在所述当前帧视频图像中,提取所述跟踪目标的特征,作为第四特征;
第四匹配模块,用于将所述第四特征与预先保存的所述跟踪目标的历史特征进行匹配;若匹配不成功,触发第二匹配模块702。
一种实施方式中,所述装置还包括:第二识别跟踪模块和第五提取模块(图中示示出),其中,
第二识别跟踪模块,用于在所述当前帧视频图像之前的视频图像中识别跟踪目标,并对所述跟踪目标进行跟踪;
第五提取模块,用于在所述跟踪目标位于视频图像的边缘区域时,提取所述跟踪目标的特征,作为所述跟踪目标的历史特征。
应用本发明图7所示实施例,第一方面,识别出了跟踪异常的情况;第二方面,确定出跟踪目标的干扰目标后,并不立即纠正,而是继续对跟踪目标进行跟踪,直至未确定出干扰目标的情况下,再判断是否跟踪异常,提高了识别跟踪异常的准确性。第三方面,先将当前帧视频图像中跟踪目标的特征(第四特征)与跟踪目标的历史特征进行匹配,匹配不成功的情况下,再确定跟踪目标的干扰目标,这样,相比于针对每帧图像中的跟踪目标,都确定其干扰目标的方案,减少了计算量。第四方面,进行了两次特征匹配,能够减少误判的情况,提高识别跟踪异常的准确性。
本发明实施例还提供了一种电子设备,如图8所示,包括处理器801和存储器802,
存储器802,用于存放计算机程序;
处理器801,用于执行存储器802上所存放的程序时,实现上述任意一种跟踪异常的识别方法。
上述电子设备提到的存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一种跟踪异常的识别方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任意一种跟踪异常的识别方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例、设备实施例、计算机可读存储介质实施例、以及计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (12)
1.一种跟踪异常的识别方法,其特征在于,包括:
在视频图像中识别跟踪目标,并对所述跟踪目标进行跟踪;
在所述跟踪目标位于视频图像的边缘区域时,提取所述跟踪目标的特征,作为第一特征;
在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域时,提取所述跟踪目标的特征,作为第二特征;
将所述第一特征与所述第二特征进行匹配,若匹配不成功,确定对所述跟踪目标的跟踪异常。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域的过程中,确定所述跟踪目标的干扰目标;
在所述第一特征与所述第二特征匹配不成功的情况下,确定所述干扰目标与所述跟踪目标产生混淆。
3.根据权利要求2所述的方法,其特征在于,所述在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域的过程中,确定所述跟踪目标的干扰目标,包括:
将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域的过程中,对视频图像中的目标进行跟踪得到的;
基于所述匹配结果,确定所述跟踪目标的干扰目标。
4.根据权利要求3所述的方法,其特征在于,所述各条轨迹线中包括第一类轨迹线和第二类轨迹线,所述第一类轨迹线为:对所述跟踪目标进行跟踪得到的轨迹线,所述第二类轨迹线为:对除所述跟踪目标以外的其他目标进行跟踪得到的轨迹线;
所述将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,包括:
计算所述第一类轨迹线对应的目标与所述跟踪目标的匹配度,作为第一匹配度;
分别计算每条所述第二类轨迹线对应的目标与所述跟踪目标的匹配度,作为第二匹配度;
所述基于所述匹配结果,确定所述跟踪目标的干扰目标,包括:
针对每个第二匹配度,判断该第二匹配度与所述第一匹配度是否相似;
如果相似,将该第二匹配度对应的目标确定为所述跟踪目标的干扰目标。
5.根据权利要求1所述的方法,其特征在于,视频图像分为三个区域:边缘区域、内层区域、以及所述边缘区域与所述内层区域之间的中层区域;
所述在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域时,提取所述跟踪目标的特征,作为第二特征,包括:
在所述跟踪目标由所述边缘区域移动至视频图像的中层区域时,提取所述跟踪目标的特征,作为第二特征。
6.一种跟踪异常的识别方法,其特征在于,包括:
在当前帧视频图像中识别跟踪目标;
将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述当前帧视频图像之前的视频图像中进行目标跟踪得到的;
基于所述匹配结果,确定所述跟踪目标的干扰目标;
在所述当前帧视频图像之后的视频图像中继续对所述跟踪目标进行跟踪,至未确定出所述跟踪目标的干扰目标的情况下,提取所述跟踪目标的特征,作为第三特征;
将所述第三特征与预先保存的所述跟踪目标的历史特征进行匹配;
若匹配不成功,确定所述干扰目标与所述跟踪目标产生混淆。
7.根据权利要求6所述的方法,其特征在于,所述各条轨迹线中包括第一类轨迹线和第二类轨迹线,所述第一类轨迹线为:对所述跟踪目标进行跟踪得到的轨迹线,所述第二类轨迹线为:对除所述跟踪目标以外的其他目标进行跟踪得到的轨迹线;
所述将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,包括:
计算所述第一类轨迹线对应的目标与所述跟踪目标的匹配度,作为第一匹配度;
分别计算每条所述第二类轨迹线对应的目标与所述跟踪目标的匹配度,作为第二匹配度;
所述基于所述匹配结果,确定所述跟踪目标的干扰目标,包括:
针对每个第二匹配度,判断该第二匹配度与所述第一匹配度是否相似;
如果相似,将该第二匹配度对应的目标确定为所述跟踪目标的干扰目标。
8.根据权利要求6所述的方法,其特征在于,所述在当前帧视频图像中识别跟踪目标之后,还包括:
在所述当前帧视频图像中,提取所述跟踪目标的特征,作为第四特征;
将所述第四特征与预先保存的所述跟踪目标的历史特征进行匹配;
若匹配不成功,执行所述将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果的步骤。
9.根据权利要求6-8任一项所述的方法,其特征在于,预先保存所述跟踪目标的历史特征的过程包括:
在所述当前帧视频图像之前的视频图像中识别跟踪目标,并对所述跟踪目标进行跟踪;
在所述跟踪目标位于视频图像的边缘区域时,提取所述跟踪目标的特征,作为所述跟踪目标的历史特征。
10.一种跟踪异常的识别装置,其特征在于,包括:
第一识别跟踪模块,用于在视频图像中识别跟踪目标,并对所述跟踪目标进行跟踪;
第一提取模块,用于在所述跟踪目标位于视频图像的边缘区域时,提取所述跟踪目标的特征,作为第一特征;
第二提取模块,用于在所述跟踪目标由所述边缘区域移动至视频图像的非边缘区域时,提取所述跟踪目标的特征,作为第二特征;
第一匹配模块,用于将所述第一特征与所述第二特征进行匹配,若匹配不成功,触发第一确定模块;
第一确定模块,用于确定对所述跟踪目标的跟踪异常。
11.一种跟踪异常的识别装置,其特征在于,包括:
识别模块,用于在当前帧视频图像中识别跟踪目标;
第二匹配模块,用于将所述跟踪目标与各条轨迹线对应的目标进行匹配,得到匹配结果,所述各条轨迹线为:在所述当前帧视频图像之前的视频图像中进行目标跟踪得到的;
第二确定模块,用于基于所述匹配结果,确定所述跟踪目标的干扰目标;
第三提取模块,用于在所述当前帧视频图像之后的视频图像中继续对所述跟踪目标进行跟踪,至未确定出所述跟踪目标的干扰目标的情况下,提取所述跟踪目标的特征,作为第三特征;
第三匹配模块,用于将所述第三特征与预先保存的所述跟踪目标的历史特征进行匹配;若匹配不成功,触发第三确定模块;
第三确定模块,用于确定所述干扰目标与所述跟踪目标产生混淆。
12.一种电子设备,其特征在于,包括处理器和存储器;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-9任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011031582.1A CN112184769B (zh) | 2020-09-27 | 2020-09-27 | 一种跟踪异常的识别方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011031582.1A CN112184769B (zh) | 2020-09-27 | 2020-09-27 | 一种跟踪异常的识别方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112184769A true CN112184769A (zh) | 2021-01-05 |
CN112184769B CN112184769B (zh) | 2023-05-02 |
Family
ID=73944164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011031582.1A Active CN112184769B (zh) | 2020-09-27 | 2020-09-27 | 一种跟踪异常的识别方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112184769B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262977A1 (en) * | 2008-04-18 | 2009-10-22 | Cheng-Ming Huang | Visual tracking system and method thereof |
CN102982559A (zh) * | 2012-11-28 | 2013-03-20 | 大唐移动通信设备有限公司 | 车辆跟踪方法及系统 |
CN103714553A (zh) * | 2012-10-09 | 2014-04-09 | 杭州海康威视数字技术股份有限公司 | 一种多目标跟踪方法和装置 |
CN104715249A (zh) * | 2013-12-16 | 2015-06-17 | 株式会社理光 | 物体跟踪方法和装置 |
CN105761277A (zh) * | 2016-02-01 | 2016-07-13 | 西安理工大学 | 一种基于光流的运动目标跟踪方法 |
CN106303442A (zh) * | 2016-08-26 | 2017-01-04 | 浙江大华技术股份有限公司 | 追踪路径拓扑结构建立方法、目标对象追踪方法及设备 |
CN108256511A (zh) * | 2018-03-15 | 2018-07-06 | 太原理工大学 | 基于视频编码码流的人体运动检测方法 |
CN108470354A (zh) * | 2018-03-23 | 2018-08-31 | 云南大学 | 视频目标跟踪方法、装置和实现装置 |
CN109712168A (zh) * | 2018-11-14 | 2019-05-03 | 联想(北京)有限公司 | 一种目标跟踪方法及电子设备、装置及存储介质 |
CN110443829A (zh) * | 2019-08-05 | 2019-11-12 | 北京深醒科技有限公司 | 一种基于运动特征和相似度特征的抗遮挡跟踪算法 |
CN110536114A (zh) * | 2019-08-05 | 2019-12-03 | 特斯联(北京)科技有限公司 | 一种目标智能追踪的停车场cctv监视系统及方法 |
CN110660084A (zh) * | 2019-09-30 | 2020-01-07 | 上海淡竹体育科技有限公司 | 一种多目标跟踪的方法及装置 |
CN110675432A (zh) * | 2019-10-11 | 2020-01-10 | 智慧视通(杭州)科技发展有限公司 | 一种基于多维特征融合的视频多目标跟踪方法 |
-
2020
- 2020-09-27 CN CN202011031582.1A patent/CN112184769B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262977A1 (en) * | 2008-04-18 | 2009-10-22 | Cheng-Ming Huang | Visual tracking system and method thereof |
CN103714553A (zh) * | 2012-10-09 | 2014-04-09 | 杭州海康威视数字技术股份有限公司 | 一种多目标跟踪方法和装置 |
CN102982559A (zh) * | 2012-11-28 | 2013-03-20 | 大唐移动通信设备有限公司 | 车辆跟踪方法及系统 |
CN104715249A (zh) * | 2013-12-16 | 2015-06-17 | 株式会社理光 | 物体跟踪方法和装置 |
CN105761277A (zh) * | 2016-02-01 | 2016-07-13 | 西安理工大学 | 一种基于光流的运动目标跟踪方法 |
CN106303442A (zh) * | 2016-08-26 | 2017-01-04 | 浙江大华技术股份有限公司 | 追踪路径拓扑结构建立方法、目标对象追踪方法及设备 |
CN108256511A (zh) * | 2018-03-15 | 2018-07-06 | 太原理工大学 | 基于视频编码码流的人体运动检测方法 |
CN108470354A (zh) * | 2018-03-23 | 2018-08-31 | 云南大学 | 视频目标跟踪方法、装置和实现装置 |
CN109712168A (zh) * | 2018-11-14 | 2019-05-03 | 联想(北京)有限公司 | 一种目标跟踪方法及电子设备、装置及存储介质 |
CN110443829A (zh) * | 2019-08-05 | 2019-11-12 | 北京深醒科技有限公司 | 一种基于运动特征和相似度特征的抗遮挡跟踪算法 |
CN110536114A (zh) * | 2019-08-05 | 2019-12-03 | 特斯联(北京)科技有限公司 | 一种目标智能追踪的停车场cctv监视系统及方法 |
CN110660084A (zh) * | 2019-09-30 | 2020-01-07 | 上海淡竹体育科技有限公司 | 一种多目标跟踪的方法及装置 |
CN110675432A (zh) * | 2019-10-11 | 2020-01-10 | 智慧视通(杭州)科技发展有限公司 | 一种基于多维特征融合的视频多目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
李宏友: "基于视频的目标检测与跟踪方法研究", 《万方平台》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112184769B (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109035299B (zh) | 目标跟踪方法、装置、计算机设备及存储介质 | |
CN111709975B (zh) | 多目标跟踪方法、装置、电子设备及存储介质 | |
US9971941B2 (en) | Person counting method and device for same | |
CN106934817B (zh) | 基于多属性的多目标跟踪方法及装置 | |
US9342759B1 (en) | Object recognition consistency improvement using a pseudo-tracklet approach | |
US8929597B2 (en) | Method of tracking objects | |
CN111652902B (zh) | 目标的跟踪检测方法、电子设备及装置 | |
CN109118514B (zh) | 一种目标跟踪方法 | |
KR20140090795A (ko) | 다중 카메라 환경에서 객체 추적 방법 및 장치 | |
WO2017199840A1 (ja) | オブジェクト追跡装置、オブジェクト追跡方法および記録媒体 | |
CN111127508A (zh) | 一种基于视频的目标跟踪方法及装置 | |
CN111383246B (zh) | 条幅检测方法、装置及设备 | |
CN112308879A (zh) | 图像处理设备、追踪对象物体的方法和存储介质 | |
WO2022048578A1 (zh) | 图像内容检测方法、装置、电子设备和可读存储介质 | |
CN112465707A (zh) | 红外图像条纹噪声的处理方法、装置、介质及电子设备 | |
CN111832349A (zh) | 遗留物错误检测的识别方法、装置及图像处理设备 | |
CN112184769B (zh) | 一种跟踪异常的识别方法、装置及设备 | |
CN111986231A (zh) | 一种多目标跟踪方法及系统 | |
CN110349184B (zh) | 基于迭代滤波和观测判别的多行人跟踪方法 | |
CN116309721A (zh) | 基于多目标跟踪的视频折返识别方法、装置、设备及介质 | |
KR101595334B1 (ko) | 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치 | |
CN112614154B (zh) | 目标跟踪轨迹的获取方法、装置及计算机设备 | |
US11972622B2 (en) | Updating of annotated points in a digital image | |
CN113449745B (zh) | 标定物图像中标记物的识别方法、装置、设备及可读介质 | |
CN114387296A (zh) | 目标轨迹追踪方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |