CN101673403B - 复杂干扰场景下的目标跟踪方法 - Google Patents

复杂干扰场景下的目标跟踪方法 Download PDF

Info

Publication number
CN101673403B
CN101673403B CN2009101930098A CN200910193009A CN101673403B CN 101673403 B CN101673403 B CN 101673403B CN 2009101930098 A CN2009101930098 A CN 2009101930098A CN 200910193009 A CN200910193009 A CN 200910193009A CN 101673403 B CN101673403 B CN 101673403B
Authority
CN
China
Prior art keywords
target
information
sigma
search
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009101930098A
Other languages
English (en)
Other versions
CN101673403A (zh
Inventor
黄敬
吴金勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Security service (Shanghai) Co.,Ltd.
Original Assignee
China Security and Surveillance Manufacturing PRC Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Security and Surveillance Manufacturing PRC Inc filed Critical China Security and Surveillance Manufacturing PRC Inc
Priority to CN2009101930098A priority Critical patent/CN101673403B/zh
Publication of CN101673403A publication Critical patent/CN101673403A/zh
Application granted granted Critical
Publication of CN101673403B publication Critical patent/CN101673403B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开一种复杂干扰场景下的目标跟踪方法,包括以下步骤:运动目标检测:对每个进入视频中的运动目标,确定其出现的初始位置,采用自适应多高斯背景模型检测,并通过形态学处理的方法分割出独立的运动目标区域;目标特征建模:对检测到的每一个运动目标区域,提取多个用于匹配的特征信息,并进行多特征信息融合,建立目标特征模板;匹配区域搜索:在当前帧视频中,在特定的区域内搜索与目标特征模板相关性最优的区域,作为当前帧目标跟踪定位;目标特征模板更新:目标跟踪定位后,根据当前帧目标区域的特征信息和前三帧的目标特征模板的特征,更新当前帧的目标特征模板的特征权重,完成目标特征模板的自适应更新。

Description

复杂干扰场景下的目标跟踪方法
技术领域
本发明属于视频监控领域,尤其涉及一种基于运动及目标信息的复杂干扰场景下的目标跟踪方法。
背景技术
目标跟踪方法的研究和应用是计算机视觉技术一个重要的分支,实现目标跟踪主要有以下几个关键点:目标提取、目标识别及算法实时性。
现有的目标跟踪方法归纳起来,主要有以下几种:
基于运动分析的方法:包括帧间差分法,背景减除法以及光流法。
帧间差分法和背景减除法主要通过帧间像素的强度变化来检测得到运动目标,根据检测出的目标之间的相关性来进行目标的跟踪。其中,背景减除法是目前最常用的目标检测以及跟踪的方法。
通过背景减除法的跟踪方法主要包含了两个部分:运动目标检测,运动目标跟踪。通过统计每一个像素点的像素值,对其建立多高斯模型从而得到视频序列中的背景图像,通过与背景图像的比较来检测出运动区域,通过形态学的方法分割运动目标,这是该方法的目标检测部分。通过背景检测法得到每一帧图像的运动目标之后,根据目标之间存在的相关性,比如大小,距离等等来实现目标的跟踪。
在一些简单的场景,或是目标比较少的场景中,该方法能够达到比较好的跟踪效果,在这些情况下,每帧的目标基本上能够形成一对一的对应关系,但是在复杂场景中,目标密集时,该方法存在很大的局限性。在复杂场景下,不同帧图像间目标的相关性较弱,目标之间相互遮挡,干扰使该方法不能判断不同视频帧之间的相同目标。常出现的情况是上一帧图像中多个目标与当前帧同一个目标存在距离等相关性,对于各个目标的跟踪就存在问题。
基于运动矢量估计的光流法通过计算像素点的运动矢量来达到目标跟踪的目的,但由于其算法的复杂度高,很难适用于实时系统。
特征匹配的方法:
特征匹配方法的出发点是通过提取目标的特征,依据同一目标特征之间的相似性来达到跟踪的目的。该方法关键在于特征选取,常用的方法主要有以下几种,基于区域模板匹配的方法,基于颜色直方图匹配的方法,基于轮廓匹配的方法等等。
基于区域模板和颜色直方图匹配的方法主要利用了目标的颜色信息,其中,区域模板匹配是以整个目标区域作为跟踪模板来进行相关性匹配计算,在目标运动过程中,经常会发生形变,或是目标尺寸发生变化,在此情况下目标很容易丢失。颜色直方图匹配将目标区域的颜色直方图作为匹配的特征,该方法主要利用了目标颜色信息,没有考虑目标的结构,或者像素点的相互位置关系,因此,光线的变化很容易导致跟踪失败,同时,如果目标区域与背景颜色信息相似时,很容易在背景区域得到最佳匹配结果,从而丢失目标。
基于轮廓的匹配方法主要依据运动目标的轮廓特征进行匹配跟踪,该方法主要不足在于对目标尺寸变化适应性不强,且对阴影或者比较拥挤的场景,目标跟踪的效果很差。
发明内容
针对现有技术的缺点,本发明的目的是提供一种能有效提高鲁棒性及跟踪精确度的复杂干扰场景下的目标跟踪方法。
为实现上述目的,本发明的技术方案为:一种复杂干扰场景下的目标跟踪方法,其包括以下步骤:
(1)运动目标检测:对每个进入视频中的运动目标,确定其出现的初始位置,采用自适应多高斯背景模型检测,并通过形态学处理的方法分割出独立的运动目标区域;
(2)目标特征建模:对检测到的每一个运动目标区域,提取多个用于匹配的特征信息,并进行多特征信息融合,建立目标特征模板,目标建模方法直接影响目标跟踪的准确性和鲁棒性,本发明通过对目标颜色,梯度,纹理等多种信息,通过非负矩阵分解的方法进行特征的提取及一致性约束,将各个特征向量看做视频图像的概率密度分布函数,各特征的信息熵作为包含信息量大小的度量,以此为基准决定多特征融合的权重分布,来建立目标特征模板,大大提高了复杂场景下目标的辨识度;
(3)匹配区域搜索:在当前帧视频中,在特定的区域内搜索与目标特征模板相关性最优的区域,作为当前帧目标跟踪定位,本发明通过多特征融合Mean-Shift搜索方法,以迭代的方法来减小搜索最优匹配的时间,同时,结合模拟退火的思想来避免迭代搜索过程陷入局部最优解,大大提高了该方法的准确度和效率;
(4)目标特征模板更新:目标跟踪定位后,根据当前帧目标区域的特征信息和前三帧的目标特征模板的特征,更新当前帧的目标特征模板的特征权重,完成目标特征模板的自适应更新。
步骤(1)中,对视频中每一个像素点建立多高斯模型,通过统计的方法估计出视频背景,设用来描述每个点颜色分布的高斯分布共有K个,分别记为:
η(Yt,μt,i,∑t,i),i=1,2,3…k
其中,η表示高斯模型,t代表每个像素点,i代表高斯分布的个数,Yt代表像素点t的亮度值,μt,i表示某一像素点其中一个高斯模型初始均值,∑t,i代表混合多高斯模型的叠加。各高斯分布分别具有不同的权值ωt,i(∑iωt,i=1)和优先级pt,i=ωt,it,i,其中σt,i是各高斯分布的方差,各个高斯分布按优先级从高到低的次序排列,取定背景权值部分和阈值M,设定阈值M,按照高斯模型的排序,将各个权值相加,不超过阈值M的,则认为是背景部分,其他则是前景分布。
步骤(2)中,对于每一个运动目标区域,采用非负矩阵分解的方法,分别提取其颜色、梯度、纹理特征信息的特征向量,得到代表各个特征信息的非负基向量组,融合各个基向量组,得到最终代表视频的特征向量组。
各特征信息的特征向量的特征提取:将各特征信息信息看做非负m*n矩阵c,其中m,n为视频图像的高度和宽度,通过迭代方法求解特征向量q以及约束矩阵h,并采用欧式距离:||c-qh||=∑i,j[ci,j-(qh)i,j]2,其中,非负矩阵分解的求解过程如下:
a.初始化q,h矩阵为非负随机矩阵;
b.对q,h进行迭代运算,其中q,h是同步迭代,迭代公式如下:
q i , a = q i , a Σ c i ( qh ) i h a
qi,a=qi,a/∑jqj,a
h a = h a Σ q i , a c i ( qh ) i
其中,i,j,a分别代表各个矩阵坐标,c为图像的信息矩阵。
c.计算c和qh之间的欧氏距离,如果大于预定订值,返回b继续运算;否则停止,运算结束,最终得到的q为某一特征信息的特征向量,其中图像颜色信息特征向量记为qc,梯度图像记为qg,纹理图像记为qc
通过对梯度图像求一阶导数得到检测图像中的边缘点,图像f(x,y)在位置(x,y)的梯度定义为下列向量:
▿ f = G x G y = ∂ f / ∂ x ∂ f / ∂ y
通过灰度共生矩阵所产生的一些统计量作为纹理特征信息来表示图像像素的空间关系,令图像f(x,y)灰度共生矩阵pi,j为:
pi,j=#{(x1,y1),(x2,y2)|f(x1,y1)=i,f(x2,y2)=j}
其中#{x|condition}表示x中满足条件condition的元素个数,i,j为图像坐标。根据(x1,y1),(x2,y2)之间的距离d,与坐标横轴的夹角θ,得到各种间距及夹角的灰度共生矩阵p(i,j,d,θ)。
多特征信息融合:设q1,q2,q3分别为某一目标区域的提取的颜色信息特征向量、梯度信息特征向量及纹理信息特征向量,则目标区域按如下方式来描述:
Q={ωiqi|i=1,2,3}
其中,ωi为各个特征信息的权重因子,∑iωi=1,权值的计算依据不同特征所包含的信息量来确定,用信息熵来进行度量,将各个特征向量看做视频图像的概率密度分布函数,记为hi,其信息熵表示为: E ( H ) = - Σ i = 1 n h i log 2 ( h i ) , 各个特征信息的权值与其信息熵成正比关系ωi∝Ei(H);
得到各个特征向量及其权值后,将目标特征模板记为Q,以y为中心的区域模板记为P(y),则匹配相关系数:
ρ [ Q , P ( y ) ] = Σ i = 1 3 ω i ρ [ Q i , P i ( y ) ]
最优匹配为寻求此相关系数的最大值。
步骤(3)中,匹配区域搜索为空间位置的局部最优搜索:后续帧的目标定位中,以前一帧的目标区域质心点为中心,采用多特征融合Mean-Shift搜索方法,搜索出与目标特征模板的最佳匹配区域;
给定d维空间Rd中的n个样本点xi,i=1,2…n,在x点的Mean Shift向量的基本形式定义为:
M h ( x ) = 1 k Σ x i ∈ S h ( x i - x )
其中,Sh是一个半径为h的高维球区域,满足以下关系的y点的集合,
Sh={y:(y-x)T(y-x)≤h2}
k表示在这n个样本点xi中,有k个点落入Sh区域中。
Mean Shift形式扩展为:
M h ( x ) = Σ i = 1 n H ( x i - x h ) ω ( x i ) ( x i - x ) Σ i = 1 n H ( x i - x h ) ω ( x i )
其中,H为与距离相关的核函数,且对所有采样点满足ω(xi)=1;
根据多特征信息融合的特征提取方法,对于指定的目标区域,提取其特征向量Q,以y为中心的区域模板记为P(y),则MFMS匹配相关系数为:
ρ [ Q , P ( y ) ] = Σ i = 1 3 ω i ρ [ Q i , P i ( y ) ] = Σ i = 1 3 ω i Σ u = 1 m Q i , u P i , u ( y )
其中,m表示每一个特征向量的维数,u为具体每一维,i表示不同的图像特征。上式在P(y0)处泰勒展开可得:
ρ [ Q , P ( y ) ] ≈ 1 2 Σ i = 1 3 ω i Σ u = 1 m Q i , u P i , u ( y ) + 1 2 Σ i = 1 3 ω i Σ u = 1 m P i , u ( y ) Q i , u P i , u ( y 0 )
对上式右边第二项采用MFMS方法搜索最佳匹配位置,迭代过程步骤如下:
i.计算当前搜索点y0的特征向量P(y0),计算与目标模板相关系数ρ[Q,P(y0)];
ii.基于MFMS,得到新的坐标点:
y 1 = Σ i = 1 3 ω i Σ u = 1 m x u P i , u ( y ) Q i , u P i , u ( y 0 ) Σ i = 1 3 ω i Σ u = 1 m P i , u ( y ) Q i , u P i , u ( y 0 )
更新P(y1),计算ρ[Q,P(y1)];
iii.比较ρ[Q,P(y0)]与ρ[Q,P(y1)],如果ρ[Q,P(y1)]>ρ[Q,P(y0)],则y0=y1,反之y1=(y0+y1)/2;
iv.在一定目标特征模板范围内随机扰动产生新的匹配点坐标y′1,计算ρ[Q,P(y′1)],比较ρ[Q,P(y1)],ρ[Q,P(y1)],如果ρ[Q,P(y1)]<ρ[Q,P(y′1)],以y′1作为最优匹配位置,反之,以某一固定概率接受y′1,y0=y′1
v.当||y1-y0||<ε或达到最高迭代次数时,算法终止,反之,回步骤2;其中,ε是给定的误差因子,在迭代过程中,连续两次计算出的匹配模板位置小于1个像素时,迭代终止,ε取值为0.5。
步骤(3)中,匹配区域搜索为尺度空间的局部最优搜索:
以当前搜索区域为起点,按尺度增大或减小方向分别进行搜索,搜索范围为尺度±(10%-15%),搜索间隔5%;
在尺度变化搜索过程中,通过减小在多特征融合中梯度信息的权重减少对梯度特征信息的干扰,通过改变灰度共生矩阵中的距离因子d减少对纹理特征信息的干扰。
与现有技术相比,本发明具有如下有益效果:
1、在运动检测的基础上增加目标信息匹配技术,提高了复杂场景下目标跟踪的鲁棒性。
2、采用多特征信息融合的方法,使得对目标的描述更为全面,提高目标跟踪过程中的成功率和稳定性。
3、采用更为合理的方式进行多特征信息融合,根据目标特征所包含的信息量来决定各个特征在目标匹配过程中所含的比重。
4、计算量小,在不失精度的前提下完全可用于实时处理。
附图说明
图1为本发明的总流程图;
图2为本发明的目标跟踪流程;
图3为本发明的多特征信息融合流程图。
具体实施方式
以下结合附图对本发明进行详细的描述。
如图1及图2所示,本发明提供一种结合运动与目标信息的复杂场景下的目标跟踪方法,该方法的主要流程如下:
●运动目标检测:对每个进入场景中的运动目标,需要确定其出现的初始位置,运动目标的检测采用自适应多高斯背景模型,并通过形态学处理的方法分割出独立的运动目标。
●目标特征建模:对检测到的每一个运动目标区域,提取多个用于匹配的特征信息,并进行多特征信息融合,建立目标特征模板,目标建模方法直接影响目标跟踪的准确性和鲁棒性,本发明通过对目标颜色,纹理等多种信息,通过非负矩阵分解的方法进行特征的提取及一致性约束,将各个特征向量看做视频图像的概率密度分布函数,各特征的信息熵作为包含信息量大小的度量,以此为基准决定多特征融合的权重分布,来建立目标特征模板。
●匹配区域搜索:在当前帧视频中,在特定的区域内搜索与目标特征模板相关性最优的区域,作为当前帧目标跟踪定位,本发明通过多特征融合Mean-Shift搜索方法,以迭代的方法来减小搜索最优匹配的时间,同时,结合模拟退火的思想来避免迭代搜索过程陷入局部最优解。
●目标特征模板更新:目标锁定后,根据当前帧目标区域的特征信息和前三帧的模板特征,更新当前帧的模板特征权重,完成模板的自适应更新,为后续的鲁棒跟踪创造条件。
下面对本发明的几个步骤依次进行详细描述:
1.运动目标检测
采用多高斯背景模型,对每一个像素点建立多高斯模型,通过统计的方法估计出视频背景,设用来描述每个点颜色分布的高斯分布共有K个,分别记为:
η(Yt,μt,i,∑t,i),i=1,2,3…k
其中,η表示高斯模型,t代表每个像素点,i代表高斯分布的个数,Yt代表像素点t的亮度值,μt,i表示某一像素点其中一个高斯模型初始均值,∑t,i代表混合多高斯模型的叠加。各高斯分布分别具有不同的权值ωt,i(∑iωt,i=1)和优先级pt,i=ωt,it,i,其中σt,i是各高斯分布的方差。各个高斯分布按优先级从高到低的次序排列,取定背景权值部分和阈值M,设定阈值M,按照高斯模型的排序,将各个权值相加,只要不超过阈值M,都认为是背景部分,即 B = min b &Sigma; 1 b &omega; j < M 前若干个分布才被认为是背景分布,其他则是前景分布。
判断一个像素点是否为前景点的方法是将当前像素值与背景模型相匹配,若满足背景模型,则当前像素点为背景,反之,则为前景像素点。
得到前景像素点之后,通过形态学腐蚀膨胀的方法分割出独立的运动目标。
2.运动目标特征建模
对检测到的每一个运动目标区域,提取用于匹配的特征,建立目标特征模型。本发明中,用于匹配的目标信息采用多特征信息融合的方式,多特征信息融合主要针对单一特征信息中存在的不足进行改进,多特征信息融合进行跟踪极大提高了算法的鲁棒性。
对于指定的目标运动区域,采用单一的特征进行匹配具有一定的局限性,针对视频图像中的运动目标而言,目标的形变,视频场景光线变化都会影响目标特征匹配的准确性,因此,针对这一问题,本发明采用了目标的颜色,边缘,纹理等多特征融合的方式来实现目标的准确匹配。
为确保待匹配特征的一致性,本发明采用非负矩阵分解的方法提取图像某一特征信息的特征向量,用于特征匹配。即将原始视频图像,原始视频梯度图像,原始视频纹理图像等看做代表了图像某一方面性质的非负矩阵信息,进行非负矩阵分解,得到代表各个特征信息的非负基向量组,融合各个基向量组,得到最终代表图像的特征向量组。首先以图像的颜色信息为例介绍非负矩阵分解的主要步骤。
2.1颜色信息的特征提取
非负矩阵分解问题可以描述为:已知一个非负m*n矩阵V,目的是找出非负的m*r矩阵W和非负的r*n矩阵H,使得V=WH。非负矩阵分解是用非负性约束来获取数据表示的一种方法。非负性是对矩阵分解非常有效的条件限制,它导致了对于原始数据的基于部分的表示形式,即样本数据只允许加性和非负的组合。算法所得到的非负基向量组W具有一定的线性无关性和稀疏性,从而使得其对原始数据的特征及结构具有相当的表达能力。
在本发明中,图像的颜色信息可以看做非负m*n矩阵c,其中m,n为图像的高度和宽度。需要得到特征向量q以及约束矩阵h,非负矩阵分解的求解是一个最优化问题,可以用迭代方法求解q和h。非负矩阵分解问题的目标函数有很多种,本发明中采用欧式距离:
||c-qh||=∑i,j[ci,j-(qh)i,j]2
非负矩阵分解问题的求解过程如下:
1.初始化q,h矩阵为非负随即矩阵,
2.对q,h进行迭代运算,其中q,h是同步迭代,也就是说,完成q中的一行更新之后,立即更新h中相应的列,迭代公式如下:
q i , a = q i , a &Sigma; c i ( qh ) i h a
qi,a=qi,a/∑jqj,a
h a = h a &Sigma; q i , a c i ( qh ) i
其中,i,j,a分别代表各个矩阵坐标,c为图像的信息矩阵。
3.计算c和qh之间的欧氏距离,如果大于预定订值,返回2继续运算;否则停止,运算结束。
最终得到的q即为图像颜色信息的特征向量,同理可以得到梯度图像以及纹理图像的特征向量。为区分不同信息的特征向量,颜色信息特征向量记为qc,梯度记为qg,纹理记为qc
2.2梯度信息
通过对图像求一阶导数可以检测图像中的边缘点,图像f(x,y)在位置(x,y)的梯度定义为下列向量:
&dtri; f = G x G y = &PartialD; f / &PartialD; x &PartialD; f / &PartialD; y
图像每一个像素分别由水平及垂直方向的梯度构成,记为g,通过非负矩阵分解的方法得到梯度特征向量qg,考虑到梯度的方向性,梯度计算存在负值,在非负矩阵分解迭代过程之前,需把梯度归一化到0-1之间。
2.3纹理信息
灰度共生矩阵是图像灰度的二阶统计度量,用灰度共生矩阵所产生的一些统计量作为纹理特征来表示图像像素的空间关系,令图像f(x,y)灰度共生矩阵pi,j为:
pi,j=#{(x1,y1),(x2,y2)|f(x1,y1)=i,f(x2,y2)=j}
其中#{x|condition}表示x中满足条件condition的元素个数,i,j为图像坐标。根据(x1,y1),(x2,y2)之间的距离d,与坐标横轴的夹角θ,可以得到各种间距及夹角的灰度共生矩阵p(i,j,d,θ)。
根据以上得到的统计量,图像的纹理信息可以表示为每一个像素点位置的二阶概率密度,记为t,通过非负矩阵分解得到其特征向量记为qt
2.4多特征信息融合
上述信息分别表示目标某一特定方面的特征,q1,q2,q3,则目标区域可以按如下方式来描述:
Q={ωiqi|i=1,2,3}
其中,ωi为各个特征的权重因子,∑iωi=1,目标跟踪就是寻求目标特征模板与区域模板之间的最优匹配。特征融合的关键是找到一组合适的权值,使目标模板匹配计算更加准确,权值的计算依据不同特征所包含的信息量来确定,用信息熵来进行度量,将各个特征矢量看做图像的概率密度分布函数,记为hi,其信息熵可以表示为:
E ( H ) = - &Sigma; i = 1 n h i log 2 ( h i )
各个特征的权值与其信息熵成正比关系ωi∝Ei(H),即某种特征所包含的信息量越多,对目标匹配产生的影响越大,如图3所示。
得到各个特征向量及其权值后,将目标特征模板记为Q,以y为中心的区域模板记为P(y),则匹配相关系数:
&rho; [ Q , P ( y ) ] = &Sigma; i = 1 3 &omega; i &rho; [ Q i , P i ( y ) ]
最优匹配就是寻求此相关系数的最大化。
3.匹配区域搜索
3.1空间位置的局部最优搜索
后续帧的目标定位中,为保证算法的实时性,以前一帧的目标质心点为中心,采用多特征融合Mean-Shift搜索(Multi-Feature Mean-Shift,MFMS)方式,搜索出与目标模板的最佳匹配区域,MFMS算法,是指一个迭代的步骤,及算出当前样本点的偏移均值,移动该样本点到其偏移均值,然后以此为新的起点,继续移动,直到满足一定的条件结束。
给定d维空间Rd中的n个样本点xi,i=1,2…n,在x点的Mean Shift向量的基本形式定义为:
M h ( x ) = 1 k &Sigma; x i &Element; S h ( x i - x )
其中,Sh是一个半径为h的高维球区域,满足以下关系的y点的集合,
Sh={y:(y-x)T(y-x)≤h2}
k表示在这n个样本点xi中,有k个点落入Sh区域中。如果样本点xi从一个概率密度函数f(x)中采样得到,由于非零的概率密度梯度指向概率密度增加最大的方向,因此Sh区域内的样本点更多的落在沿着概率密度梯度的方向,对应的,Mean Shift向量Mh(x)应该指向概率密度梯度的方向。
一般来说,距离x点越近的采样点对估计x周围的统计特性越有效,因此引进了核函数的概念,在计算Mh(x)时可以考虑距离的影响,基本的Mean Shift形式扩展为:
M h ( x ) = &Sigma; i = 1 n H ( x i - x h ) &omega; ( x i ) ( x i - x ) &Sigma; i = 1 n H ( x i - x h ) &omega; ( x i )
其中,H为与距离相关的核函数,且对所有采样点满足ω(xi)=1。
根据多特征融合的特征提取方法,对于指定的目标区域,提取其特征向量Q,以y为中心的区域模板记为P(y),则MFMS匹配相关系数为:
&rho; [ Q , P ( y ) ] = &Sigma; i = 1 3 &omega; i &rho; [ Q i , P i ( y ) ] = &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m Q i , u P i , u ( y )
其中,m表示每一个特征向量的维数,u为具体每一维,i表示不同的图像特征,上式在P(y0)处泰勒展开可得:
&rho; [ Q , P ( y ) ] &ap; 1 2 &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m Q i , u P i , u ( y ) + 1 2 &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m P i , u ( y ) Q i , u P i , u ( y 0 )
对右边第二项采用MFMS方法搜索最佳匹配位置,迭代过程步骤如下:
1.计算当前搜索点y0的特征向量P(y0),计算与目标模板相关系数ρ[Q,P(y0)]。
2.基于MFMS,得到新的坐标点:
y 1 = &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m x u P i , u ( y ) Q i , u P i , u ( y 0 ) &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m P i , u ( y ) Q i , u P i , u ( y 0 )
更新P(y1),计算ρ[Q,P(y1)]。
3.比较ρ[Q,P(y0)]与ρ[Q,P(y1)],如果ρ[Q,P(y1)]>ρ[Q,P(y0)],则y0=y1,反之y1=(y0+y1)/2。
4.在一定模板范围内随机扰动产生新的匹配点坐标y′1,计算ρ[Q,P(y′1)],比较ρ[Q,P(y1)],ρ[Q,P(y1)],如果ρ[Q,P(y1)]<ρ[Q,P(y′1)],以y′1作为最优匹配位置,反之,以某一固定概率接受y′1,y0=y′1
5.当||y1-y0||<ε或达到最高迭代次数时,算法终止,反之,回步骤2。其中,ε是给定的误差因子,在迭代过程中,连续两次计算出的匹配模板位置小于1个像素时,迭代终止,ε取值为0.5。
3.2尺度空间的局部最优搜索
尺度空间局部最优搜索的作用是提高算法对目标尺度变化情况跟踪的稳定性,以当前检测区域为起点,按尺度增大或减小方向分别进行搜索,搜索范围为尺度±(10%-15%),搜索间隔5%。
在尺度变化搜索过程中,其梯度信息和纹理信息发生了较大的改变,通过两种方式减少此变化带来的影响,针对图像梯度信息,采取的方法是减小在多特征融合中梯度信息的权重,针对纹理信息,主要改变灰度共生矩阵中的距离因子d,采取的方式是在计算过程中,保留几组根据不同的距离因子所产生的灰度共生矩阵,根据得到的目标模板大小,适当增加或者减小距离因子d,在尺度搜索过程中与不同的纹理信息进行相关性计算。增加尺度方向上的搜索极大改善了一般匹配中固定模板的缺陷,大大提高了视频序列中目标尺寸变化情况下跟踪的成功率。
3.3目标模板更新
目标锁定后,根据当前帧目标区域的特征信息和前三帧的模板特征,更新当前帧的模板特征权重,完成模板的自适应更新,更新包括目标的特征信息及尺度的变化。为后续的鲁棒跟踪创造条件。

Claims (2)

1.一种复杂干扰场景下的目标跟踪方法,其特征在于包括以下步骤:
(1)运动目标检测:对每个进入视频中的运动目标,确定其出现的初始位置,采用自适应多高斯背景模型检测,并通过形态学处理的方法分割出独立的运动目标区域;
(2)目标特征建模:对检测到的每一个运动目标区域,提取多个用于匹配的特征信息,并进行多特征信息融合,建立目标特征模板,其通过对目标颜色、梯度、纹理特征信息的特征向量,采用非负矩阵分解的方法进行特征的提取及一致性约束,将各个特征向量看做视频图像的概率密度分布函数,各特征的信息熵作为包含信息量大小的度量,以此为基准决定多特征融合的权重分布,建立目标特征模板;
(3)匹配区域搜索:在当前帧视频中,在特定的区域内搜索与目标特征模板相关性最优的区域,作为当前帧目标跟踪定位,其通过多特征融合Mean-Shift搜索方法,以迭代的方法来减小搜索最优匹配的时间,同时,结合模拟退火算法来排除迭代搜索过程陷入局部最优解;
(4)目标特征模板更新:目标跟踪定位后,根据当前帧目标区域的特征信息和前三帧的目标特征模板的特征,更新当前帧的目标特征模板的特征权重,完成目标特征模板的自适应更新;
步骤(2)中,非负矩阵的具体分解方法为:将各特征信息看做非负m*n矩阵c,其中m,n为视频图像的高度和宽度,通过迭代方法求解特征向量q以及约束矩阵h,并采用欧式距离:||c-qh||=∑i,j[ci,j-(qh)i,j]2,其中,非负矩阵分解的求解过程如下:
a.初始化q,h矩阵为非负随机矩阵;
b.对q,h进行迭代运算,其中q,h是同步迭代,迭代公式如下:
q i , a = q i , a &Sigma; c i ( qh ) i h a
qi,a=qi,a/∑jqj,a
h a = h a &Sigma; q i , a c i ( qh ) i
其中,i,j,a分别代表各个矩阵坐标,c为图像的信息矩阵;
c.计算c和qh之间的欧氏距离,如果大于预定订值,返回b继续运算;否则停止,运算结束,最终得到的q为某一特征信息的特征向量,其中图像颜色信息特征向量记为qc,梯度图像记为qg,纹理图像记为qc
通过对梯度图像求一阶导数得到检测图像中的边缘点,图像f(x,y)在位置(x,y)的梯度定义为下列向量:
&dtri; f = G x G y = &PartialD; f / &PartialD; x &PartialD; f / &PartialD; y
通过灰度共生矩阵所产生的一些统计量作为纹理特征信息来表示图像像素的空间关系,令图像f(x,y)灰度共生矩阵pi,j为:
pi,j=#{(x1,y1),(x2,y2)|f(x1,y1)=i,f(x2,y2)=j}
其中#{x|condition}表示x中满足条件condition的元素个数,i,j为图像坐标;根据(x1,y1),(x2,y2)之间的距离d,与坐标横轴的夹角θ,得到各种间距及夹角的灰度共生矩阵p(i,j,d,θ);
多特征信息融合:设q1,q2,q3分别为某一目标区域的提取的颜色信息特征向量、梯度信息特征向量及纹理信息特征向量,则目标区域按如下方式来描述:
Q={ωiqi|i=1,2,3}
其中,ωi为各个特征信息的权重因子,∑iωi=1,权值的计算依据不同特征所包含的信息量来确定,用信息熵来进行度量,将各个特征向量看做视频图像的概率密度分布函数,记为hi,其信息熵表示为:
Figure FSB00000527403000022
各个特征信息的权值与其信息熵成正比关系ωi Ei(H);
得到各个特征向量及其权值后,将目标特征模板记为Q,以y为中心的区域模板记为P(y),则匹配相关系数:
&rho; [ Q , P ( y ) ] = &Sigma; i = 1 3 &omega; i &rho; [ Q i , P i ( y ) ]
最优匹配为寻求此相关系数的最大值;
步骤(3)中,匹配区域搜索为空间位置的局部最优搜索:后续帧的目标定位中,以前一帧的目标区域质心点为中心,采用多特征融合Mean-Shift搜索方法,搜索出与目标特征模板的最佳匹配区域;
给定d维空间Rd中的n个样本点xi,i=1,2…n,在x点的Mean Shift向量的基本形式定义为:
M h ( x ) = 1 k &Sigma; x i &Element; S h ( x i - x )
其中,Sh是一个半径为h的高维球区域,满足以下关系的y点的集合,
Sh={y:(y-x)T(y-x)≤h2}
k表示在这n个样本点xi中,有k个点落入Sh区域中;
Mean-Shift形式扩展为:
M h ( x ) = &Sigma; i = 1 n H ( x i - x h ) &omega; ( x i ) ( x i - x ) &Sigma; i = 1 n H ( x i - x h ) &omega; ( x i )
其中,H为与距离相关的核函数,且对所有采样点满足权值ω(xi)=1;
根据多特征信息融合的特征提取方法,对于指定的目标区域,提取其特征向量Q,以y为中心的区域模板记为P(y),则MFMS匹配相关系数为:
&rho; [ Q , p ( y ) ] = &Sigma; i = 1 3 &omega; i &rho; [ Q i , P i ( y ) ] = &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m Q i , u P i , u ( y )
其中,m表示每一个特征向量的维数,u为具体每一维,i表示不同的图像特征,上式在P(y0)处泰勒展开可得:
&rho; [ Q , P ( y ) ] &ap; 1 2 &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m Q i , u P i , u ( y ) + 1 2 &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m P i , u ( y ) Q i , u P i , u ( y 0 )
对上式右边第二项采用MFMS方法搜索最佳匹配位置,迭代过程步骤如下:
i.计算当前搜索点y0的特征向量P(y0),计算与目标模板相关系数ρ[Q,P(y0)];
ii.基于MFMS,得到新的坐标点:
y 1 = &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m x u P i , u ( y ) Q i , u P i , u ( y 0 ) &Sigma; i = 1 3 &omega; i &Sigma; u = 1 m P i , u ( y ) Q i , u P i , u ( y 0 )
更新P(y1),计算ρ[Q,P(y1)];
iii.比较ρ[Q,P(y0)]与ρ[Q,P(y1)],如果ρ[Q,P(y1)]>ρ[Q,P(y0)],则y0=y1,反之y1=(y0+y1)/2;
iv.在一定目标特征模板范围内随机扰动产生新的匹配点坐标y′1,计算ρ[Q,P(y′1)],比较ρ[Q,P(y1)],ρ[Q,P(y1)],如果ρ[Q,P(y1)]<ρ[Q,P(y′1)],以y′1作为最优匹配位置,反之,以某一固定概率接受y′1,y0=y′1
v.当||y1-y0||<ε或达到最高迭代次数时,算法终止,反之,回步骤2;其中,ε是给定的误差因子,在迭代过程中,连续两次计算出的匹配模板位置小于1个像素时,迭代终止,ε取值为0.5;
步骤(3)中,匹配区域搜索为尺度空间的局部最优搜索:
以当前搜索区域为起点,按尺度增大或减小方向分别进行搜索,搜索范围为尺度±(10%-15%),搜索间隔5%;
在尺度变化搜索过程中,通过减小在多特征融合中梯度信息的权重减少对梯度特征信息的干扰,通过改变灰度共生矩阵中的距离因子d减少对纹理特征信息的干扰。
2.根据权利要求1所述的复杂干扰场景下的目标跟踪方法,其特征在于:步骤(1)中,多高斯背景模型的具体检测方法为:对视频中每一个像素点建立多高斯模型,通过统计的方法估计出视频背景,设用来描述每个点颜色分布的高斯分布共有K个,分别记为:
η(Yt,μt,i,∑t,i),i=1,2,3…k
其中,η表示高斯模型,t代表每个像素点,i代表高斯分布的个数,Yt代表像素点t的亮度值,μt,i表示某一像素点其中一个高斯模型初始均值,∑t,i代表混合多高斯模型的叠加,各高斯分布分别具有不同的权值ωt,i,∑iωt,i=1和优先级pt,i=ωt,it,i,其中σt,i是各高斯分布的方差,各个高斯分布按优先级从高到低的次序排列,取定背景权值部分和阈值M,按照高斯模型的排序,将各个权值相加,不超过阈值M的,则认为是背景部分,其他则是前景分布。
CN2009101930098A 2009-10-10 2009-10-10 复杂干扰场景下的目标跟踪方法 Expired - Fee Related CN101673403B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009101930098A CN101673403B (zh) 2009-10-10 2009-10-10 复杂干扰场景下的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009101930098A CN101673403B (zh) 2009-10-10 2009-10-10 复杂干扰场景下的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN101673403A CN101673403A (zh) 2010-03-17
CN101673403B true CN101673403B (zh) 2012-05-23

Family

ID=42020613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101930098A Expired - Fee Related CN101673403B (zh) 2009-10-10 2009-10-10 复杂干扰场景下的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN101673403B (zh)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101916446A (zh) * 2010-07-23 2010-12-15 北京航空航天大学 基于边缘信息和均值移位的灰度目标跟踪算法
CN102005040B (zh) * 2010-09-09 2012-08-01 吉林大学 基于多特征融合匹配的目标交接方法
CN101964113A (zh) * 2010-10-02 2011-02-02 上海交通大学 光照突变场景下的运动目标检测方法
CN101976350B (zh) * 2010-10-20 2012-11-21 中国农业大学 基于视频分析的储粮害虫检测识别方法及其系统
CN102156702B (zh) * 2010-12-17 2012-12-12 南方报业传媒集团 一种由粗到精的视频事件的快速定位方法
CN102789573A (zh) * 2011-05-16 2012-11-21 索尼公司 目标检测设备和方法及分类器训练设备和方法
JP5518007B2 (ja) * 2011-07-11 2014-06-11 クラリオン株式会社 車両用外界認識装置及びそれを用いた車両制御システム
CN102324030B (zh) * 2011-09-09 2013-11-06 广州灵视信息科技有限公司 一种基于图像块特征的目标跟踪方法及跟踪系统
CN102521841A (zh) * 2011-11-22 2012-06-27 四川九洲电器集团有限责任公司 多目标物体跟踪方法
CN102592138B (zh) * 2011-12-30 2014-04-30 上海电力学院 基于多模块稀疏投影的密集场景目标跟踪方法
CN103218798A (zh) * 2012-01-19 2013-07-24 索尼公司 图像处理设备和方法
CN102609949A (zh) * 2012-02-16 2012-07-25 南京邮电大学 一种基于三焦点张量像素点转移的目标定位方法
CN102663777A (zh) * 2012-04-26 2012-09-12 安科智慧城市技术(中国)有限公司 基于多视点视频的目标跟踪方法及系统
CN102789672B (zh) * 2012-07-03 2017-10-10 深圳市瑞工科技有限公司 一种婴儿睡姿智能识别方法及装置
CN102915545A (zh) * 2012-09-20 2013-02-06 华东师范大学 一种基于OpenCV的视频目标跟踪算法
CN103810696B (zh) * 2012-11-15 2017-03-22 浙江大华技术股份有限公司 一种目标对象图像检测方法及装置
CN103810695B (zh) * 2012-11-15 2017-03-22 浙江大华技术股份有限公司 一种光源定位方法及装置
CN103020987B (zh) * 2012-11-27 2015-12-23 天津艾思科尔科技有限公司 基于多背景模型的快速前景检测方法
CN103116756B (zh) * 2013-01-23 2016-07-27 北京工商大学 一种人脸检测与跟踪方法及装置
CN103136730B (zh) * 2013-01-25 2015-06-03 西安理工大学 视频图像中内容的光流和轮廓特征动态结构融合方法
CN103369361B (zh) * 2013-06-17 2016-08-10 深圳市深信服电子科技有限公司 图像数据回显的控制方法、服务器及终端
CN103500454A (zh) * 2013-08-27 2014-01-08 东莞中国科学院云计算产业技术创新与育成中心 一种抖动视频运动目标提取方法
CN103714554A (zh) * 2013-12-12 2014-04-09 华中科技大学 一种基于传播融合的视频跟踪方法
CN104008368A (zh) * 2014-05-13 2014-08-27 重庆大学 一种基于最大熵阈值分割的火灾识别方法
CN105321188A (zh) * 2014-08-04 2016-02-10 江南大学 基于前景概率的目标跟踪方法
CN105374048B (zh) * 2014-09-01 2019-03-26 天津拓视科技有限公司 运动目标的检测方法和系统
CN104253981B (zh) * 2014-09-28 2017-11-28 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN104614751B (zh) * 2015-01-30 2017-06-09 上海电机学院 基于约束信息的目标定位方法
CN105136302B (zh) * 2015-05-04 2017-09-29 北京佰能电气技术有限公司 一种基于色彩传感器的定位装置
CN105095884B (zh) * 2015-08-31 2018-11-13 桂林电子科技大学 一种基于随机森林支持向量机的行人识别系统及处理方法
CN106558065A (zh) * 2015-09-17 2017-04-05 西安翔舟航空技术有限公司 基于图像颜色和纹理分析实现对目标的实时视觉跟踪方法
CN105117720B (zh) * 2015-09-29 2018-08-28 江南大学 基于时空模型的目标尺度自适应跟踪方法
CN105427342B (zh) * 2015-11-17 2018-06-08 中国电子科技集团公司第三研究所 一种水下小目标声呐图像目标检测跟踪方法和系统
CN105761237B (zh) * 2015-12-15 2019-02-12 江南大学 基于mean shift的芯片X光图像层次分割
CN105469361B (zh) 2015-12-24 2018-12-04 努比亚技术有限公司 一种局部图像处理方法和装置
CN106023256B (zh) * 2016-05-19 2019-01-18 石家庄铁道大学 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法
CN106152949A (zh) * 2016-07-15 2016-11-23 同济大学 一种非接触视频位移测量方法
CN106447685B (zh) * 2016-09-06 2019-04-02 电子科技大学 一种红外跟踪方法
CN106874881B (zh) * 2017-02-23 2019-09-24 电子科技大学 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法
CN107169993A (zh) * 2017-05-12 2017-09-15 甘肃政法学院 利用公安视频监控模糊图像对目标物进行检测识别方法
CN107229920B (zh) * 2017-06-08 2020-11-13 重庆大学 基于整合深度典型时间规整及相关修正的行为识别方法
CN107316321B (zh) * 2017-06-22 2020-08-18 电子科技大学 多特征融合目标跟踪方法及基于信息熵的权值自适应方法
CN107491731B (zh) * 2017-07-17 2019-12-20 南京航空航天大学 一种面向精确打击的地面运动目标检测与识别方法
CN107452020B (zh) * 2017-08-04 2021-04-06 河北汉光重工有限责任公司 一种自适应模板匹配的抗遮挡跟踪方法
CN110059521B (zh) * 2018-01-18 2022-05-13 浙江宇视科技有限公司 目标跟踪方法及装置
CN108492328B (zh) * 2018-03-23 2021-02-26 云南大学 视频帧间目标匹配方法、装置和实现装置
CN108597016B (zh) * 2018-04-19 2019-04-09 西安交通大学 基于相关熵的Torr-M-Estimators基础矩阵鲁棒估计方法
CN108765463B (zh) * 2018-05-30 2021-11-16 河海大学常州校区 一种结合区域提取与改进纹理特征的运动目标检测方法
CN109344703B (zh) * 2018-08-24 2021-06-25 深圳市商汤科技有限公司 对象检测方法及装置、电子设备和存储介质
CN109147011B (zh) * 2018-08-27 2023-11-14 平安科技(深圳)有限公司 车牌图像生成方法、装置、计算机设备及存储介质
CN109493367B (zh) * 2018-10-29 2020-10-30 浙江大华技术股份有限公司 一种对目标对象进行跟踪的方法和设备
CN109410281A (zh) * 2018-11-05 2019-03-01 珠海格力电器股份有限公司 一种定位控制方法、装置、存储介质及物流系统
CN109523573A (zh) * 2018-11-23 2019-03-26 上海新世纪机器人有限公司 目标对象的跟踪方法和装置
CN109766925B (zh) * 2018-12-20 2021-05-11 深圳云天励飞技术有限公司 特征融合方法、装置、电子设备及存储介质
CN110111364B (zh) * 2019-04-30 2022-12-27 腾讯科技(深圳)有限公司 运动检测方法、装置、电子设备及存储介质
CN110490911B (zh) * 2019-08-14 2021-11-23 西安宏规电子科技有限公司 基于约束条件下非负矩阵分解的多摄像头多目标追踪方法
CN110517356A (zh) * 2019-08-21 2019-11-29 佳都新太科技股份有限公司 实现多路视频融合的三维增强现实的系统、方法及设备
CN110991565A (zh) * 2019-12-24 2020-04-10 华北理工大学 基于kcf的目标跟踪优化算法
CN111721318B (zh) * 2020-05-26 2022-03-25 南京航空航天大学 一种基于自适应搜索区域的模板匹配视觉里程计
CN112347852B (zh) * 2020-10-10 2022-07-29 上海交通大学 体育运动视频的目标追踪与语义分割方法及装置、插件
CN112966782B (zh) * 2021-04-09 2024-08-02 深圳市豪恩汽车电子装备股份有限公司 一种多视角特征融合的路面积水检测识别方法
CN115249254B (zh) * 2022-09-21 2022-12-30 江西财经大学 一种基于ar技术的目标跟踪方法及系统
CN118365868B (zh) * 2024-06-20 2024-08-23 中国人民解放军火箭军工程大学 复杂三维模型定向对抗攻击纹理生成方法

Also Published As

Publication number Publication date
CN101673403A (zh) 2010-03-17

Similar Documents

Publication Publication Date Title
CN101673403B (zh) 复杂干扰场景下的目标跟踪方法
US9014432B2 (en) License plate character segmentation using likelihood maximization
CN108446634B (zh) 基于视频分析和定位信息结合的航空器持续跟踪方法
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN103164693B (zh) 一种监控视频行人检测匹配方法
CN103903019A (zh) 一种多车道车辆轨迹时空图的自动生成方法
CN104200485A (zh) 一种面向视频监控的人体跟踪方法
CN108564598B (zh) 一种改进的在线Boosting目标跟踪方法
CN105279769B (zh) 一种联合多特征的层次粒子滤波跟踪方法
CN103606164B (zh) 基于高维三重马尔可夫场的sar图像分割方法
CN103530893A (zh) 相机抖动场景下基于背景差和运动信息的前景检测方法
CN101308607A (zh) 基于视频的混合交通环境下移动目标多特征融合跟踪方法
CN104200495A (zh) 一种视频监控中的多目标跟踪方法
CN104036523A (zh) 一种基于SURF特征的改进Mean Shift的目标跟踪方法
CN106326924A (zh) 一种基于局部分类的目标跟踪方法及系统
CN102163333B (zh) 谱聚类的sar图像变化检测方法
CN104615998B (zh) 一种基于多视角的车辆检索方法
CN101739687A (zh) 基于协方差矩阵的快速机动目标跟踪方法
CN106682087A (zh) 一种基于车载装饰品特征稀疏编码的车辆检索方法
Liu et al. Dynamic RGB-D SLAM based on static probability and observation number
CN102750522B (zh) 一种目标跟踪的方法
CN103824305A (zh) 一种改进的Meanshift目标跟踪方法
CN103729462B (zh) 一种基于稀疏表示处理遮挡的行人检索方法
CN105809678B (zh) 一种短基线条件下两视图间线段特征全局匹配方法
CN105447488B (zh) 基于素描线段拓扑结构的sar图像目标检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: SMART CITY SYSTEM SERVICES CHINA CO., LTD.

Free format text: FORMER OWNER: CHINA SECURITY + SURVEILLANCE INTELLIGENCE (PRC), INC.

Effective date: 20140313

C41 Transfer of patent application or patent right or utility model
C56 Change in the name or address of the patentee

Owner name: CHINA SECURITY + SURVEILLANCE INTELLIGENCE (PRC),

Free format text: FORMER NAME: CHINA SECURITY + SURVEILLANCE MANUFATURING (PRC). INC..

COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 518106 SHENZHEN, GUANGDONG PROVINCE TO: 518000 SHENZHEN, GUANGDONG PROVINCE

CP01 Change in the name or title of a patent holder

Address after: 518106 CSST Industrial Zone, Gong Chang Road (public village), Guangming District, Guangdong, Shenzhen

Patentee after: CSST CHINA SECURITY & SURVEILLANCE INTELLIGENCE Co.,Ltd.

Address before: 518106 CSST Industrial Zone, Gong Chang Road (public village), Guangming District, Guangdong, Shenzhen

Patentee before: China Security & Surveillance Manufacturing (PRC)., Inc.

TR01 Transfer of patent right

Effective date of registration: 20140313

Address after: 6, building 4068, block C, wisdom Plaza, No. 518000 Shannon Road, Shenzhen, Guangdong, Nanshan District

Patentee after: SMART CITIES SYSTEM SERVICES (PRC)CO., Ltd.

Address before: 518106 CSST Industrial Zone, Gong Chang Road (public village), Guangming District, Guangdong, Shenzhen

Patentee before: CSST CHINA SECURITY & SURVEILLANCE INTELLIGENCE Co.,Ltd.

C41 Transfer of patent application or patent right or utility model
DD01 Delivery of document by public notice

Addressee: SMART CITIES SYSTEM SERVICES (PRC)CO., Ltd.

Document name: Notification to Pay the Fees

TR01 Transfer of patent right

Effective date of registration: 20160226

Address after: 201299, No. 2099 Huaxia East Road, Shanghai, Pudong New Area

Patentee after: Security service (Shanghai) Co.,Ltd.

Address before: 6, building 4068, block C, wisdom Plaza, No. 518000 Shannon Road, Shenzhen, Guangdong, Nanshan District

Patentee before: SMART CITIES SYSTEM SERVICES (PRC)CO., Ltd.

DD01 Delivery of document by public notice

Addressee: Liu Yang

Document name: Notification of Passing Examination on Formalities

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120523

Termination date: 20171010