CN102236901B - 基于图论聚类和色彩不变空间的目标跟踪方法 - Google Patents

基于图论聚类和色彩不变空间的目标跟踪方法 Download PDF

Info

Publication number
CN102236901B
CN102236901B CN201110181318.0A CN201110181318A CN102236901B CN 102236901 B CN102236901 B CN 102236901B CN 201110181318 A CN201110181318 A CN 201110181318A CN 102236901 B CN102236901 B CN 102236901B
Authority
CN
China
Prior art keywords
unique point
color
frame
target
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110181318.0A
Other languages
English (en)
Other versions
CN102236901A (zh
Inventor
李勃
陈抒瑢
董蓉
翟霄宇
顾昊
丁文
杨娴
陈启美
郁建桥
徐亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Huichuan Industrial Visual Technology Development Co ltd
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201110181318.0A priority Critical patent/CN102236901B/zh
Publication of CN102236901A publication Critical patent/CN102236901A/zh
Application granted granted Critical
Publication of CN102236901B publication Critical patent/CN102236901B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

基于图论聚类和色彩不变空间的目标跟踪方法,包括以下步骤:1)对视频流的图像进行色彩不变空间转换,用色彩不变特征CSIFT特征提取特征点;2)特征的图论运动聚类,具有相同运动趋势的特征点属于相同运动状态的目标,由特征点跟踪到视频帧中的目标。本发明采用局部不变特征,摒弃全局特征的盲目性;实现色彩不变特征CSIFT提取,在保持SIFT特征几何不变性优势的同时增加了色彩不变性,从灰度特征空间提升为彩色空间;针对静止背景下的运动物体,将图论思想融入匹配,将特征运动分类作为匹配的预处理,使匹配操作更加准确、快速。

Description

基于图论聚类和色彩不变空间的目标跟踪方法
技术领域
本发明属于视频图像处理技术领域,涉及视频中的目标跟踪,为一种基于图论聚类和色彩不变空间的目标跟踪方法。
背景技术
目标跟踪在视觉导航、行为识别、智能交通等领域有非常广泛的研究和应用。当前大多数的运动检测和目标跟踪算法都是基于Harris和SIFT特征,但难以解决匹配效率,低光照差异引起的色彩变化等问题。其它一些跟踪算法利用亮度恒常性计算光流,然而如果强度分布比较均匀,如:特征不明显的墙,或有一维强度分布,如:边缘,图像速率就无法可靠估计。
图像特征的提取与匹配是物体识别、动态跟踪、图像拼接等方面的应用基础内容。提取的特征可分为全局特征和局部特征。全局特征是通过某些特征描述整幅图像内容,若图像背景较复杂或存在噪声干扰,前景目标混杂在背景中或被遮挡,此时便难以将全局特征提取出来,因此图像全局特征具有盲目性,抗干扰能力较差。局部不变特征对尺度缩放、图像旋转、光照变化和仿射变换具有较强的鲁棒性,其稳定性、可重复性和独特性也具有显著优势。利用局部不变特征进行图像处理是近期的研究热点。
在局部不变特征提取与匹配研究中,尺度不变特征变换SIFT(Scale Invariant FeatureTransform)算法不变性优势明显,但SIFT的描述子无法处理彩色图像,且其匹配运算量大,不同运动物体间的误匹配时有发生。
发明内容
本发明要解决的问题是:现有的局部不变特征提取与匹配研究中,SIFT受限于灰度图像,无法处理彩色图像,且其匹配运算量大,不同运动物体间的误匹配时有发生。
本发明的技术方案为:基于图论聚类和色彩不变空间的目标跟踪方法,包括以下步骤:
1)对视频流的图像进行色彩不变空间转换,用色彩不变特征CSIFT特征提取,检测提取色彩不变、尺度不变特征,计算不变量特征向量;
2)特征的图论运动聚类:基于图论,根据特征运动趋势对视频帧进行特征点的聚类,以当前帧为参考图像,后一帧为待匹配图像,以这两帧的CSIFT特征点作为图的节点,获取色彩不变图像下各节点的运动趋势信息,以每两个节点的运动趋势相似度为节点间边的权重,对两帧中的节点同时进行聚类,具有相同运动趋势的特征点属于相同运动状态的目标,通过特征点聚类将相邻两帧视频帧中的同一目标分割出来,实现对视频帧中目标的跟踪。
进一步的,步骤2)后进行特征分类匹配,对各个目标上的特征点进一步细化,根据聚类结果,对每一类分别匹配,计算当前帧CSIFT特征点的特征向量与后一帧中属于同一类的所有CSIFT特征点的特征向量的欧氏距离,最小距离与次小距离的比率小于0.6时则为匹配,匹配的特征点属于同一目标,若当前帧中特征点在后一帧中没有对应的匹配特征点,则此特征点不属于所跟踪目标,通过特征分类匹配,细化各个特征点与目标之间的对应关系,对匹配后的特征点跟踪,实现目标的细化跟踪。
本发明的目标跟踪具体为:
1)图像预处理,对视频流的帧图像背景建模,去除背景影响;
2)依照Kubelka-Munk理论进行色彩不变空间转换,对参考图像I1(x,y)和待匹配图像I2(x,y)分别求出色彩不变量H1(x,y)和H2(x,y),以色彩不变量代替图像的灰度值;
3)CSFIT特征检测,在色彩不变空间中对H1,H2用SIFT算法提取特征,并生成色彩不变空间下的SIFT描述子,即CSIFT特征点,包含特征点的信息有坐标、尺度、主方向及128维特征向量,在彩色图像上标识;
4)图论的运动聚类,基于图论,对视频帧的特征点进行聚类,对相邻两帧中的特征点建立图,进行聚类分类,将检测出的CSIFT特征点作为节点,定义其运动矢量,表征该点运动趋势的概率分布,从而将某两个像素运动趋势的相似性反映在边的权重上;采用色彩空间变换后的图像代替灰度图像,以H不变量代替灰度值进行计算,Ht(X)表示t时刻视频帧二维空间中,以特征点X为中心的运算窗体,Pi(dx)表示第i个节点Xi对应下一帧运动dx的概率,dx表示该点所有可能的运动偏移方向;计算Pi(dx),先计算Ht(Xi)和Ht+1(Xi+dx)的相似度Si(dx),如式(1),其中w属于视频帧二维空间,是Ht(Xi)的局部邻域:
S i ( dx ) = exp ( - Σ w ( H T ( X i + w ) - H t + 1 ( X i + dx + w ) ) 2 / σ SSD 2 ) - - - ( 1 )
σSSD是点Xi对所有dx,式(Ht(Xi+w)-Ht+1(Xi+dx+w))的标准差,将式(1)归一化为概率分布:
P i ( dx ) = S i ( dx ) Σ dx S i ( dx ) - - - ( 2 )
以两个运动趋势的互相关来检测运动相似度,将视频帧中i,j两节点的距离定义为:
d ( i , j ) = 1 - Σ dx P i ( dx ) P j ( dx ) - - - ( 3 )
则边(i,j)的权重为:
wij=exp(-d(i,j)/σm 2)                             (4)
σm 2是图中所有d(i,j)的方差;
设d(i)=∑jwij是节点Xi与其他所有节点的连接,设视频帧为图G,特征点点集V,将其分为两个点集A,B,AUB=V,归一化分割,表示为:
Ncut ( A , B ) = cut ( A , B ) asso ( A , V ) + cut ( A , B ) asso ( B , V ) - - - ( 5 )
其中
Figure BDA0000072701080000035
是A,B两部分的差异程度大小,N是图中节点的总个数,asso(A,V)=∑u∈A,t∈Vw(u,t)是A中节点与图中所有节点的权重和,asso(B,V)是B中节点与图中所有节点的权重和;
设D是以d为对角元素的N×N对角矩阵:
d ( i ) = Σ j w ij , d = d ( 1 ) 0 0 0 0 0 d ( 2 ) 0 0 0 0 0 . . . 0 0 0 0 0 d ( N - 1 ) 0 0 0 0 0 d ( N )
W是N×N的对称矩阵,W(i,j)=wij
得到瑞利商描述式(6),
min x Ncut ( x ) = min y y T ( D - W ) y y T Dy - - - ( 6 )
通过求解广义特征值方程式(7)间接获得瑞利商:
(D-W)y=λDy                        (7)
求解广义特征值方程式(D-W)y=λDy,将广义特征方程变换为标准特征方程,
Figure BDA0000072701080000041
其中
Figure BDA0000072701080000042
利用广义特征值方程式第二小的特征值对图进行二分,分析分类后的稳定性,决定是否需要细分,若要细分使用下一小的特征向量递归分割,直到不需要细分为止,最终得到的各类别的特征点集就是分别属于不同运动目标的,通过特征点集的位置确定目标的位置,实现对目标的跟踪。
作为优选,利用广义特征值方程式第二小的特征值对图进行二分,计算当前Ncut最小值,若Ncut最小值大于预先设定的阈值0.05,则需要细分,使用下一小的特征向量递归分割,直到Ncut最小值小于设定的阈值。
本发明克服现有的目标跟踪方法的不足,提供一种基于图论聚类和色彩不变空间的目标跟踪方法,形成稳定的目标轨迹及其精确的运动信息。
现有的局部不变特征提取与匹配研究中,多数采用Harris,而SIFT算法提取的特征性能更佳;但SIFT是将彩色图像直接转化为灰度图像,丢失了色彩信息,在不同光照下,同一场景得到的灰度图像有所不同,而CSIFT首先将彩色图像进行色彩不变空间转换,得到具有色彩不变性的色彩不变空间图像,用色彩不变空间图像中像素对应的H不变量代替灰度图像中的灰度值。色彩不变空间图像的优势在于比灰度图像增加了色彩信息,从而使同一场景不同光照下转换得到的图像是相同的。
现有跟踪技术都是先匹配再聚类,匹配运算量大,不同运动物体间的误匹配时有发生。而本发明方法先聚类再匹配,匹配时只考虑属于同类的特征点,大大降低运算量,也避免了不同物体间的误匹配。本发明以图像局部不变特征为理论基础,弥补了SIFT特征提取与匹配算法的缺点,提出基于图论的CSIFT特征匹配算法,具有如下优点:
●采用局部不变特征,摒弃全局特征的盲目性;
●实现色彩不变特征CSIFT提取,在保持SIFT特征几何不变性优势的同时增加了色彩不变性,从灰度特征空间提升为彩色空间;
●提出基于图论的CSIFT特征匹配算法并得以实现,针对静止背景下的运动物体,将图论思想融入匹配,将特征运动分类作为匹配的预处理,使匹配操作更加准确、快速。
附图说明
图1为本发明的流程图。
具体实施方式
本发明基于图论聚类和色彩不变空间的目标跟踪方法,提取特征点,然后对这些点的运动趋势做图论聚类,把特征点归类到各自的目标,分别对每个目标进行跟踪匹配,如图1,包括以下流程:
1)对视频流的图像进行色彩不变空间转换,用色彩不变特征CSIFT特征提取,检测提取色彩不变、尺度不变特征,计算不变量特征向量;
2)特征的图论运动聚类:基于图论,根据特征运动趋势对视频帧进行特征点的聚类,以当前帧为参考图像,后一帧为待匹配图像,以这两帧的CSIFT特征点作为图的节点,获取色彩不变图像下各节点的运动趋势信息,以每两个节点的运动趋势相似度为节点间边的权重,对两帧中的节点同时进行聚类,具有相同运动趋势的特征点属于相同运动状态的目标,通过特征点聚类将相邻两帧视频帧中的同一目标分割出来,实现对视频帧中目标的跟踪。
进一步的,步骤2)后进行特征分类匹配,对属于各个目标的特征点进一步细化,排除不属于目标的特征点,匹配各个特征点与目标之间的对应关系,细化特征点的跟踪。
具体的步骤为:
1)图像预处理,对视频流的帧图像背景建模,去除背景影响;
2)依照Kubelka-Munk理论进行色彩不变空间转换,对参考图像I1(x,y)和待匹配图像I2(x,y)分别求出色彩不变量H1(x,y)和H2(x,y)以色彩不变量代替图像的灰度值;
3)CSFIT特征检测,在色彩不变空间中对H1,H2用SIFT算法提取特征,并生成色彩不变空间下的SIFT描述子,即CSIFT特征点描述子,包含特征点的坐标、尺度、主方向及128维特征向量等信息,在彩色图像上标识。CSIFT特征提取可以总结为以下几步:
(31)根据Kubelka-Munk理论对输入图像进行色彩空间变换,获得与视点、表面方向、光照方向、光强和菲涅尔反射系数无关的色彩不变量H;
(32)用H代替原输入图像的灰度值,对H变换后的图像在尺度空间中检测局部极值,其图像本身包含不变色彩信息,因此保证了特征点的色彩不变性;
(33)将检测到的极值点作为关键点进行三维二次函数拟合,以确定其精确位置和尺度,并弃除低对比度的点和不稳定的边缘响应点,获得特征点;
(34)给每个特征点分配方向,允许存在一个主方向和多个辅方向;
(35)根据特征方向调整,保证旋转不变性,再参考尺度系数获得对应大小的描述符采样邻域,对每个特征点建立一个128维的尺度不变描述符;
4)图论的运动聚类,将检测出的CSIFT特征点作为节点,定义其运动矢量,表征该点运动趋势的概率分布,从而将某两个像素运动趋势的相似性反映在边的权重上。采用色彩空间变换后的图像代替灰度图像,以H不变量代替灰度值进行计算。Ht(X)表示t时刻视频帧二维空间中,以特征点X为中心的运算窗体,Pi(dx)表示第i个节点Xi对应下一帧运动dx的概率,dx表示该点所有可能的运动偏移方向。计算Pi(dx)需要先计算Ht(Xi)和Ht+1(Xi+dx)的相似度Si(dx),本发明采取类似SSD的相似度求取方法。如式(1),其中w属于视频帧二维空间,是Ht(Xi)的局部邻域:
S i ( dx ) = exp ( - Σ w ( H T ( X i + w ) - H t + 1 ( X i + dx + w ) ) 2 / σ SSD 2 ) - - - ( 1 )
将式(1)归一化为概率分布:
P i ( dx ) = S i ( dx ) Σ dx S i ( dx ) - - - ( 2 )
两个运动趋势的互相关是检测运动相似度简单有效的方法。将i,j两节点的距离定义为:
d ( i , j ) = 1 - Σ dx P i ( dx ) P j ( dx ) - - - ( 3 )
则边(i,j)的权重为:
wij=exp(-d(i,j)/σm 2)                                (4)
设d(i)=∑jw(i,j)是节点Xi与其他所有节点的连接。设视频帧为图G,特征点点集V,将其分为两个点集A,B,AUB=V,归一化分割,即Normalized Cut(Ncut)表示为:
Ncut ( A , B ) = cut ( A , B ) asso ( A , V ) + cut ( A , B ) asso ( B , V ) - - - ( 5 )
其中
Figure BDA0000072701080000071
是A,B两部分的差异程度大小,asso(A,V)=∑u∈A,t∈Vw(u,t)是A中节点与图中所有节点的权重和,asso(B,V)类似。
设D是以d为对角元素的N×N对角矩阵:
d ( i ) = Σ j w ij , d = d ( 1 ) 0 0 0 0 0 d ( 2 ) 0 0 0 0 0 . . . 0 0 0 0 0 d ( N - 1 ) 0 0 0 0 0 d ( N )
W是N×N的对称矩阵,W(i,j)=wij
得到瑞利商描述式(6),
min x Ncut ( x ) = min y y T ( D - W ) y y T Dy - - - ( 6 )
通过求解广义特征值方程式(7)间接获得瑞利商:
(D-W)y=λDy                        (7)
求解广义特征值方程式(D-W)y=λDy,将广义特征方程变换为标准特征方程,
Figure BDA0000072701080000074
其中
Figure BDA0000072701080000075
广义特征方程的第二小特征向量就是Ncut二分问题的实值解,归一化分割Ncut具体可参见《Motion Segmentation and Tracking usingNormalized cuts》(ICCV′98Proceedings of the Sixth International Conference on ComputerVision)利用广义特征值方程式第二小的特征值对图进行二分,分析分类后的稳定性,决定是否需要细分,若要细分使用下一小的特征向量递归分割,直到不需要细分为止,最终得到的各类别的特征点集就是分别属于不同运动目标的,通过特征点集的位置确定目标的位置,实现对目标的跟踪。
利用广义特征值方程式第二小的特征值对图进行二分时,计算当前Ncut最小值,若Ncut最小值大于预先设定的阈值0.05,则需要细分,使用下一小的特征向量递归分割,直到Ncut最小值小于设定的阈值。
进一步采用步骤5)对特征进行匹配,细化特征点与目标的匹配跟踪;
5)对各个目标上的特征点进一步细化,根据聚类结果,对每一类分别匹配,计算当前帧CSIFT特征点的特征向量与后一帧中属于同一类的所有CSIFT特征点的特征向量的欧氏距离,最小距离与次小距离的比率小于0.6时则为匹配,匹配的特征点属于同一目标,若当前帧中特征点在后一帧中没有对应的匹配特征点,则此特征点不属于所跟踪目标,不再跟踪此特征点的位置,且此特征点不再参加后续帧的图论运动聚类,通过特征分类匹配,细化各个特征点与目标之间的对应关系,对匹配后的特征点跟踪,实现目标的细化跟踪。
本发明是一个完整的目标跟踪解决方案,在实际的视频监控、行为分析、智能交通、电子警察等领域有广阔的应用;与现有技术相比,使用本跟踪方法,用户可以很好的解决当前跟踪算法中的经典难题,实现对多目标的稳定精确跟踪:
1)现有的局部不变特征提取与匹配研究中,多数采用Harris,而SIFT算法提取的特征性能更佳;
2)SIFT是将彩色图像直接转化为灰度图像,丢失了色彩信息,在不同光照下,同一场景得到的灰度图像有所不同,而CSIFT首先将彩色图像进行色彩不变空间转换,得到具有色彩不变性的色彩不变空间图像,用色彩不变空间图像中像素对应的H不变量代替灰度图像中的灰度值。色彩不变空间图像的优势在于比灰度图像增加了色彩信息,从而使同一场景不同光照下转换得到的图像是相同的。
3)现有跟踪技术都是先匹配再聚类,匹配运算量大,不同运动物体间的误匹配时有发生。而本发明方法先聚类再匹配,匹配时只考虑属于同类的特征点,大大降低运算量,也避免了不同物体间的误匹配。

Claims (3)

1.基于图论聚类和色彩不变空间的目标跟踪方法,其特征是包括以下步骤:
1)对视频流的图像进行色彩不变空间转换,进行色彩不变特征CSIFT特征提取,检测提取色彩不变、尺度不变特征,计算不变量特征向量;
2)特征的图论运动聚类:基于图论,根据特征运动趋势对视频帧进行特征点的聚类,以当前帧为参考图像,后一帧为待匹配图像,以这两帧的CSIFT特征点作为图的节点,获取色彩不变图像下各节点的运动趋势信息,以每两个节点的运动趋势相似度为节点间边的权重,对两帧中的节点同时进行聚类,具有相同运动趋势的特征点属于相同运动状态的目标,通过特征点聚类将相邻两帧视频帧中的同一目标分割出来,实现对视频帧中目标的跟踪;
目标跟踪具体为:
a)图像预处理,对视频流的帧图像背景建模,去除背景影响;
b)依照Kubelka-Munk理论进行色彩不变空间转换,对参考图像I1(x,y)和待匹配图像I2(x,y)分别求出色彩不变量H1(x,y)和H2(x,y),以色彩不变量代替图像的灰度值;
c)CSIFT特征检测,在色彩不变空间中对H1,H2用SIFT算法提取特征,并生成色彩不变空间下的SIFT描述子,即CSIFT特征点描述子,包含特征点的坐标、尺度、主方向及128维特征向量信息,在彩色图像上标识;
d)图论的运动聚类,基于图论,对视频帧的特征点进行聚类,对相邻两帧中的特征点建立图,进行聚类分类,将检测出的CSIFT特征点作为节点,定义其运动矢量,表征该点运动趋势的概率分布,并将某两个像素运动趋势的相似性反映在边的权重上;采用色彩空间变换后的图像代替灰度图像,以色彩不变量H代替灰度值进行计算,Ht(X)表示t时刻视频帧二维空间中以特征点X为中心的运算窗体,Pi(dx)表示第i个节点Xi对应下一帧运动dx的概率,Dx表示第i个节点所有可能的运动偏移方向;计算Pi(dx),先计算Ht(Xi)和Ht+1(Xi+dx)的相似度Si(dx),如式(1),其中w属于视频帧二维空间,是Ht(Xi)的局部邻域:
S i ( dx ) = exp ( - Σ ( H t ( Xi + w ) - H t + 1 ( X i + dx + w ) ) 2 / w σ SSD 2 ) - - - ( 1 )
σSSD是点Xi对所有dx,式(Ht(Xi+w)-Ht+1(Xi+dx+w))的标准差,将式(1)归一化为概率分布:
P i ( dx ) = S i ( dx ) Σ dx S i ( dx ) - - - ( 2 )
以两个运动趋势的互相关来检测运动相似度,将视频帧中i,j两节点的距离定义为:
d ( i , j ) = 1 - Σ dx P i ( dx ) P j ( dx ) - - - ( 3 )
则边(i,j)的权重为:
wij=exp(-d(i,j)/σm 2)  (4)
σm 2是图中所有d(i,j)的方差;
设d(i)=∑jwij是节点Xi与其他所有节点的连接,设视频帧为图G,特征点点集V,将其分为两个点集A,B,A∪B=V,
Figure FDA00002829569700023
归一化分割,表示为:
Ncut ( A , B ) = cut ( A , B ) asso ( A , V ) + cut ( A , B ) asso ( B , V ) - - - ( 5 )
其中
Figure FDA00002829569700025
是A,B两部分的差异程度大小,N是图中节点的总个数,asso(A,V)=∑u∈At∈Vw(u,t)是A中节点与图中所有节点的权重和,asso(B,V)是B中节点与图中所有节点的权重和;
设D是以d(i)为对角元素的N×N对角矩阵:
D = d ( 1 ) 0 0 0 0 0 d ( 2 ) 0 0 0 0 0 . . . 0 0 0 0 0 d ( N - 1 ) 0 0 0 0 0 d ( N )
W是N×N的对称矩阵,W(i,j)=wij
得到瑞利商描述式(6),
min x Ncut ( x ) = min y y T ( D - W ) y y T Dy - - - ( 6 )
通过求解广义特征值方程式(7)间接获得瑞利商:
(D-W)y=λDy  (7)
求解广义特征值方程式(D-W)y=λDy,将广义特征方程变换为标准特征方程,
Figure FDA00002829569700031
其中
Figure FDA00002829569700032
利用广义特征值方程式第二小的特征值对图进行二分,分析分类后的稳定性,决定是否需要细分,若要细分使用下一小的特征向量递归分割,直到不需要细分为止,最终得到的各类别的特征点集就是分别属于不同运动目标的,通过特征点集的位置确定目标的位置,实现对目标的跟踪。
2.根据权利要求1所述的基于图论聚类和色彩不变空间的目标跟踪方法,其特征是步骤2)后进行特征分类匹配,对各个目标上的特征点进一步细化,根据聚类结果,对每一类分别匹配,计算当前帧CSIFT特征点的特征向量与后一帧中属于同一类的所有CSIFT特征点的特征向量的欧氏距离,最小距离与次小距离的比率小于0.6时则为匹配,匹配的特征点属于同一目标,若当前帧中特征点在后一帧中没有对应的匹配特征点,则此特征点不属于所跟踪目标,通过特征分类匹配,细化各个特征点与目标之间的对应关系,对匹配后的特征点进行跟踪,实现目标的细化跟踪。
3.根据权利要求1或2所述的基于图论聚类和色彩不变空间的目标跟踪方法,其特征是利用广义特征值方程式第二小的特征值对图进行二分,计算当前Ncut最小值,若Ncut最小值大于预先设定的阈值0.05,则需要细分,使用下一小的特征向量递归分割,直到Ncut最小值小于设定的阈值。
CN201110181318.0A 2011-06-30 2011-06-30 基于图论聚类和色彩不变空间的目标跟踪方法 Expired - Fee Related CN102236901B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110181318.0A CN102236901B (zh) 2011-06-30 2011-06-30 基于图论聚类和色彩不变空间的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110181318.0A CN102236901B (zh) 2011-06-30 2011-06-30 基于图论聚类和色彩不变空间的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN102236901A CN102236901A (zh) 2011-11-09
CN102236901B true CN102236901B (zh) 2013-06-05

Family

ID=44887525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110181318.0A Expired - Fee Related CN102236901B (zh) 2011-06-30 2011-06-30 基于图论聚类和色彩不变空间的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN102236901B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930292B (zh) * 2012-10-17 2015-11-11 清华大学 一种基于p-SIFT特征的物体识别方法
CN105190689A (zh) * 2013-06-14 2015-12-23 英特尔公司 包括基于毗连特征的对象检测和/或双边对称对象分段的图像处理
CN103606170B (zh) * 2013-12-05 2016-04-13 武汉大学 基于彩色尺度不变的街景影像特征检测与匹配方法
CN104506800B (zh) * 2014-12-15 2018-11-13 浙江宇视科技有限公司 一种多方向电警摄像机场景合成及综合监控方法和装置
CN106128037A (zh) * 2016-07-05 2016-11-16 董超超 一种用于自然灾害的监控预警装置
CN106504269B (zh) * 2016-10-20 2019-02-19 北京信息科技大学 一种基于图像分类的多算法协作的目标跟踪方法
CN106846358A (zh) * 2017-01-13 2017-06-13 西北工业大学深圳研究院 基于稠密轨迹投票的多目标分割与跟踪方法
CN107784321B (zh) * 2017-09-28 2021-06-25 深圳市快易典教育科技有限公司 数字绘本快速识别方法、系统及计算机可读存储介质
CN108427927B (zh) * 2018-03-16 2020-11-27 深圳市商汤科技有限公司 目标再识别方法和装置、电子设备、程序和存储介质
CN108734198A (zh) * 2018-04-20 2018-11-02 句容市宝启电子科技有限公司 一种基于移动终端的色彩信息交互式即时提取方法
WO2020062899A1 (zh) * 2018-09-26 2020-04-02 惠州学院 通过前景背景像素对和灰度信息获得透明度遮罩的方法
CN115082709B (zh) * 2022-07-21 2023-07-07 陕西合友网络科技有限公司 遥感大数据处理方法、系统及云平台
CN116132798B (zh) * 2023-02-02 2023-06-30 深圳市泰迅数码有限公司 一种智能摄像头的自动跟拍方法
CN116740383B (zh) * 2023-06-19 2024-06-21 清远市保鸿涂料有限公司 一种基于图像识别的车漆配方精准识别方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101504771B (zh) * 2009-03-20 2010-08-11 北京航空航天大学 一种非参数化模型的视觉跟踪方法
CN101511022B (zh) * 2009-03-20 2010-07-07 北京航空航天大学 一种机载视频压缩与目标跟踪联合实现方法
CN101840507B (zh) * 2010-04-09 2012-07-18 江苏东大金智建筑智能化系统工程有限公司 基于角点特征不变量和图论聚类的目标跟踪方法
CN102012939B (zh) * 2010-12-13 2012-11-14 中国人民解放军国防科学技术大学 综合颜色和局部不变特征匹配的动画场景自动标注方法

Also Published As

Publication number Publication date
CN102236901A (zh) 2011-11-09

Similar Documents

Publication Publication Date Title
CN102236901B (zh) 基于图论聚类和色彩不变空间的目标跟踪方法
Karasulu Review and evaluation of well-known methods for moving object detection and tracking in videos
Yang et al. Recent advances and trends in visual tracking: A review
WO2019134327A1 (zh) 一种基于边缘检测与sift的人脸表情识别特征提取方法
Seo et al. Action recognition from one example
Zhang et al. Learning semantic scene models by object classification and trajectory clustering
Zeng et al. Robust head-shoulder detection by PCA-based multilevel HOG-LBP detector for people counting
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN107316031A (zh) 用于行人重识别的图像特征提取方法
Lee et al. Place recognition using straight lines for vision-based SLAM
Xu et al. Automatic building rooftop extraction from aerial images via hierarchical RGB-D priors
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
Wang et al. Detection of small aerial object using random projection feature with region clustering
Hui RETRACTED ARTICLE: Motion video tracking technology in sports training based on Mean-Shift algorithm
Saenko et al. Practical 3-d object detection using category and instance-level appearance models
Nandhini et al. SIFT algorithm-based Object detection and tracking in the video image
CN104574435A (zh) 基于块聚类的运动相机前景分割方法
Xie et al. Tracking objects with adaptive feature patches for PTZ camera visual surveillance
Chen et al. Vision-based traffic surveys in urban environments
Liu et al. [Retracted] Mean Shift Fusion Color Histogram Algorithm for Nonrigid Complex Target Tracking in Sports Video
Sushma et al. Text detection in color images
Hingane et al. Object tracking using joint color-texture histogram
Zhou et al. A car face parts detection algorithm based on faster R-CNN
Zhang et al. Pedestrian intrusion detection based on improved GMM and SVM
Bhuvaneswari et al. TRACKING MANUALLY SELECTED OBJECT IN VIDEOS USING COLOR HISTOGRAM MATCHING.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: NANJING HUICHUAN INDUSTRIAL VISUAL TECHNOLOGY DEVE

Free format text: FORMER OWNER: NANJING UNIVERSITY

Effective date: 20140612

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 210093 NANJING, JIANGSU PROVINCE TO: 210042 NANJING, JIANGSU PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20140612

Address after: 210042, Nanjing District, Jiangsu province Xu Xu Zhuang Software Park, B District, F District, three layers of research

Patentee after: NANJING HUICHUAN INDUSTRIAL VISUAL TECHNOLOGY DEVELOPMENT Co.,Ltd.

Address before: 210093 Nanjing, Gulou District, Jiangsu, No. 22 Hankou Road

Patentee before: Nanjing University

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130605

CF01 Termination of patent right due to non-payment of annual fee