CN102930294A - 基于混沌特征量视频运动模态分割和交通状况识别的方法 - Google Patents

基于混沌特征量视频运动模态分割和交通状况识别的方法 Download PDF

Info

Publication number
CN102930294A
CN102930294A CN2012103992512A CN201210399251A CN102930294A CN 102930294 A CN102930294 A CN 102930294A CN 2012103992512 A CN2012103992512 A CN 2012103992512A CN 201210399251 A CN201210399251 A CN 201210399251A CN 102930294 A CN102930294 A CN 102930294A
Authority
CN
China
Prior art keywords
video
matrix
cluster
dimension
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012103992512A
Other languages
English (en)
Inventor
胡士强
王勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN2012103992512A priority Critical patent/CN102930294A/zh
Publication of CN102930294A publication Critical patent/CN102930294A/zh
Pending legal-status Critical Current

Links

Images

Abstract

一种基于混沌特征量视频运动模态分割和交通状况的识别方法,包括步骤:第一步,计算特征向量矩阵;第二步,视频分割;第三步,比较聚类结果;第四步,视频检索;第五步,视频分类。本发明通过提取视频的特征量,并组成新的特征向量可以很好的描述视频的动态信息,可广泛应用于视频监控系统、视频会议系统、工业产品检测系统、机器人视觉导航系统、军事目标检测分类系统等各类民用及军用系统中,具有广阔的市场前景和应用价值。

Description

基于混沌特征量视频运动模态分割和交通状况识别的方法
技术领域
本发明涉及的是一种计算机模式识别技术领域的分类方法,具体地说,涉及的是一种基于混沌特征量来对视频分割和交通状况识别的算法。 
背景技术
视频分割是计算机视觉与模式识别领域的研究热点。将视频中不同的运动模式准确分类在民用和军用上均具有广泛的应用前景。如通过视频监控,对不同的交通情况(拥塞,中度拥堵,车流较少)进行分类。针对视频分割这个问题,国内外学者提出了很多方法。 
视频分割的主要方法有基于运动信息,基于模型和基于时空信息的方法。基于运动信息的有光流法和变化检测法。光流法是通过计算帧与帧之间像素变化,来得到光流场。但是它受到局部运动约束,因此对于低纹理无纹理物体的运动,物体内部的运动场会丢失,即前后两帧中原来被遮盖的背景由于前景运动显现出来,影响光流计算。变化检测由全局运动估计模块,自适应阈值决策模块,基本分割模块组成。 
基于模型的方法主要有混合高斯法,基于随机场模型模型分割法。混合高斯法假设图片背景的每个像素值是符合高斯分布的,因而可以计算出背景的均值和方差,从而建立起背景的高斯模型。当有运动物体进入图像时,该物体的颜色值与背景有较大的差异,此时物体所在区域就不符合高斯模型,于是物体就可以当做前景分离出来。基于随机场模型模型分割法是将最大后验概率准则-马尔科夫随机场(MAP-MRF)的标记问题转化为图论的最小割问题。 
传统的识别交通状况的算法是通过对视频里面车辆分割,跟踪,通过得到视频中车的数目以及车的速度来判断交通状况。这种方法的缺点是将车辆从视频中一个个分割出来比较困难,特别是视频低分辨率,气候条件不好如雨天,或者车很多的时候等情况,这些都会影响到分割的结果。而车辆跟踪并计算出车辆的速度这个问题也不容易解决。 
经对现有技术文献的检索发现,B.B.Chaudhuri等在《IEEE Trans.on Pattern Analysis and Machine Intelligence》(pp.72–77,1995)上发表“Texture segmentation using fractal dimension”(基于分形维数的纹理分割,IEEE智能分析和机器智能)和Antoni B.Chan等在《IEEE Trans.on Pattern Analysis and Machine Intelligence》(pp.909-926,2008)上发表“Modeling,clustering,and segmenting video with mixtures of dynamic textures”(基于混合动态纹理对视频建模,分类和分割,IEEE智能分析和机器智能)。第一篇文章指出了可以用分形维数来对图像分割。第二篇文章指出描述纹理的线性动态系统是可以用来对视频分割的。 
线性系统受制于马尔科夫性质,即当前状态量只由前一时刻的状态量决定。现实生活中很多系统并不是线性系统,这就限制了线性系统的应用。混沌理论能够更好描述现实系统,而且已经应用在动作识别上,使用的混沌特征不变量是最大李雅普诺夫指数。但是最大李雅普诺夫指数不适合用来做视频分割。 
发明内容
本发明的目的在于针对现有方法中存在的不足,提出一种改进的分割视频的运动模式和识别交通状况的算法,主要的创新点包括:1)将视频每个位置随时间变化的像素看作混沌时间序列。应用混沌理论来得到混沌时间序列的相关特征量,并组成一个新的特征向量来描述混沌时间序列。视频就可以用一个特征矩阵来描述;2)通过实验验证,本文提出的特征向量能够很好的用来描述视频中的运动模式并分割视频中的运动模式;3)我们采用isodata算法来对特征矩阵聚类。Iosdata算法是一种软性分类,而传统的聚类划分是硬性的划分。软性分类可以认识到大多数分类对象在初始认知或者初始分类时不太可能显示的最本质属性。这种模糊聚类的过程以一种逐步进化的方式来逼近事物的本质,可以客观的反映人们认识事物的过程,是一种更科学的聚类方式;4)用基于地球移动距离earth mover’s distance(EMD)来对特征向量聚类。EMD算法作为度量概率数据相似性的标准具有抗噪性好,对概率分布间的微小偏移不敏感等优良特性,广泛的用于各种图像分类,视频检索和视频分类中。本发明是通过以下技术方案实现的, 
一种基于混沌特征量视频运动模态分割和交通状况的识别方法,其特点在于,该方法包括如下步骤: 
第一步,计算特征向量矩阵:将视频里面每个随时间变化的像素点看作一个混 沌时间序列。计算每个混沌时间序列的嵌入维数,嵌入时间延迟,盒维数,信息维数,关联维数,平均值和方差。将上面计算得到的特征向量组成一个新的特征向量,视频的每个像素点位置就由这个特征向量来表示。这样一个视频就变成了一个特征向量矩阵; 
第二步,视频分割:根据第一步中得到的特征向量矩阵,利用Isodata算法对这个特征向量矩阵聚类。Isodata算法可以简要概括如下:(a)设置聚类分析控制参数,(b)初始分类,(c)按照控制参数给定的要求,将前一次获得的聚类进行分裂和合并处理,以获得新的聚类中心和分类集,(d)迭代计算各项指标,判别聚类结果是否符合要求,以此反复经过多次迭代计算,直至得到理想的聚类结果。由于每个特征向量矩阵代表一个视频,因此对向量矩阵的聚类结果,即为对视频聚类的结果,即完成了视频分割; 
第三步,比较聚类结果:利用第二步得到的聚类结果,用EMD来比较聚类结果。EMD算法是一种比较某个特定区域里面两个概率分布距离的度量。即如果两个分布被看作在某个特定区域上两种不同方式堆积一定数量的山堆,那么EMD就是把一堆变成另一堆所需要移动单位小块最小的距离之和。分别计算每个特征向量矩阵与其它特征向量矩阵的EMD距离,从而得到一个EMD比较结果矩阵。由于每个特征向量矩阵代表一个视频,因此这个EMD比较矩阵中的每个数值即为相应的横向坐标代表的视频和纵向坐标代表的视频之间的距离,距离越小,代表两个视频越接近。每个视频跟自己的EMD距离为零; 
第四步,视频检索:将EMD比较结果矩阵中的每个值作为高斯函数的核,得到一个新的训练矩阵。将训练矩阵每行的数值按照从大到小的顺序排列,则可以找到行数代表的视频跟其它视频的相似度,这样可以达到视频的功能。 
第五步,视频分类:将得到的训练矩阵,采取先训练再分类的方法来对交通状况分类。训练方法是,每次我们选出一个视频来作为待分类的视频,其余视频全部用来训练,且已经知道用来训练的视频属于哪一类。然后将训练矩阵按照待分类的视频和其它视频之间的相似度按照从高到低来排序,则待分类的视频和相似度最高的视频分为同一类型。依次将每个视频作为待分类视频,即完成了对待分类视频的分类。 
与现有技术相比,本发明的技术效果是用混沌时间序列来模拟随时间变化的像素值。混沌时间序列对数据的描述优于线性系统,能够更好的描述像素值随时间的 变化。Isodata聚类算法在无需聚类个数的情况下能够自动对非高斯数据进行聚类。本发明能够较好的对视频中的运动模式进行分类。本发明中的特征向量能够很好的描述视频中的动态信息,通过EMD算法来比较不同的交通状况,相比以往的通过分割再检测然后跟踪来得到交通状况的算法更加简单,比用线性系统来描述交通视频更加准确稳健。 
本发明可应用于视频分割、交通视频检索、交通视频识别系统、军事目标检测分类系统等各类民用系统中,具有广阔的市场前景和应用价值。 
附图说明
图1为本发明实施例的流程图。 
图2为计算嵌入延迟和嵌入维数的示意图。 
图3为计算视频的不同运动特征位置的特征量图。 
图4为EMD算法的示意图。 
图5视频运动模式分割结果图。 
图6为EMD算法计算各个视频之间的距离的部分结果图。 
图7为将EMD矩阵作为高斯核函数得到的训练矩阵的部分结果图。 
图8为交通视频检索部分结果图。 
图9为交通视频不同特征组合的识别率的结果图。 
具体实施方式
为了更好地理解本发明的技术方案, 
下面结合附图对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。 
本发明包括下列步骤: 
(1)计算得到特征向量矩阵 
如图1所示,本实施例首先是得到每个随时间变化的像素点的特征量。然后将特征量组成特征向量,视频中的每个像素点就由这个特征向量来表示。从而将整个视频变为特征向量矩阵。下面我们先来介绍混沌理论的基本概念。 
(1.1)混沌理论介绍: 
混沌系统是看似杂乱无章的随机运动,在文献“Takens F 1981 Detecting Strange Attractor in Turbulence(Lecture Notes in Mathematics vol 898)ed D A Rand and L S Young p 366.”里面指出通过映射可以将一维的混沌时间序列映射到高维空间,需要计算两个参数嵌入延迟和嵌入维数。 
嵌入延迟τ可以通过计算时间序列互信息得到(A.M.Fraser et.al.,“Independent Coordinates for Strange Attractors from Mutual Information,”Phys.Rev.,1986.)。首先得到时间序列的最大最小值min(xτ)和max(xτ),将区间[min(xτ),max(xτ)]分成长度相同的小区间。计算: 
I ( τ ) = Σ s = 1 b Σ q = 1 b P s , q ( τ ) log p s , q p s ( τ ) p q ( τ ) - - - ( 1 )
其中Ps和Pq分别表示变量xτ在第s个区间和在第q个区间的概率,Ps,q表示xτ在第s个区间xτ-τ在第q个区间的联合概率。I(τ)的第一个局部最小值选为嵌入延迟,且τ>1。图3显示的是目标y方向位置的时间序列值。图3画出了计算的互信息得到的可能的嵌入延迟的值。第一个最小值被选为嵌入延迟。 
嵌入维数d通过伪最近邻方法得到(M.B.Kennel et.al,“Determining Embedding Dimension for Phase Space Reconstruction using A Geometrical Construction,”Phys.Rev.A,45,1992.)。其思想是在重构空间中,如果两点比较临近,则在下一时刻仍然会很接近。计算嵌入维数方法如下:首先在时间序列X选择一点x(i),在其领域范围ε选择点x(j),计算在d-1维x(i)和x(j)之间的距离: 
R i = x i + dτ b - x j + dτ b | | x ( i ) - x ( j ) | | - - - ( 2 )
如果Ri大于阈值RT,则认为p(i)有伪最近邻。利用上述公式计算d=1,2,…,直到Ri<RT为止。 
这样,对一个给定的时间序列x(t)=[x1(t),x2(t),…,xn(t)]∈Rn,通过映射可以表示为: 
图2为计算嵌入延迟和嵌入维数的示意图。 
(1.2)混沌特征不变量 
混沌特征不变量是用来刻画混沌运动的某个方面特征的量。本发明中我们用到的混沌特征不变量有三个:盒维数,信息维数和关联维数。 
盒维数:盒维数是分形维数的一种,它刻画着序列的混沌几何特征。令DF是盒维数,如果一个点集是由一定数量的盒子覆盖,且每个盒子至少含有一个点,则对一个自相似集。 
信息维数:信息维数表示的是信息尺度和轨迹点半径的比。 
关联维数:关联维数是状态空间密度的变化在邻域半径的度量。 
我们还用到下面这两个特征: 
时间序列均值:对像素点的时间序列值求平均得到平均值。 
时间序列方差:对像素点的时间序列值求方差。 
我们将嵌入延迟,嵌入维数,盒维数,信息维数,关联维数,均值,方差组成一个特征向量。 
图3为计算视频的不同运动特征位置的特征量图。图中(a)(b)(c)分别为三幅不同的视频,我们选择了视频中不同位置的像素点的时间序列来计算各个特征量。 
(2)视频运动模式分割 
含有固定运动模式的视频里面,相同的运动模式的特征向量具有相似性,因此可以通过聚类算法来分割视频里面的运动模式。本发明采用Isodata聚类算法来实现。Isodata聚类算法如下: 
(a)输入N个特征向量样本{xi,i=1,2,...,N}{xi,i=1,2,…,N}。预选Nc个初始聚类中心 
Figure BDA00002274282200061
它可以不等于所要求的聚类中心的数目,其初始位置可以从样本中任意选取。 
预设参数:K=预期的聚类中心数目;θN=每一聚类域中最少的样本数目,若少于此数即不作为一个独立的聚类;θS=一个聚类域中样本距离分布的标准差; θc=两个聚类中心间的最小距离,若小于此数,两个聚类需进行合并;L=在一次迭代运算中可以合并的聚类中心的最多对数;I=迭代运算的次数。 
(b)将N个特征向量样本分给最近的聚类Sj,假若 
Figure BDA00002274282200071
即||x-zj‖的距离最小,则x∈Sj。 
(c)如果Sj中的样本数目Sj<θN,则取消该样本子集,此时Nc减去1。 
(d)修正各聚类中心 
Z J = 1 N j Σ x ∈ S j x , j=1,2,…,Nc
(e)计算各聚类域Sj中特征向量样本与各聚类中心间的平均距离 
D ‾ j = 1 N j Σ x ∈ S j | | x - z j | | , j=1,2,…,Nc
(f)计算全部特征向量样本和其对应聚类中心的总平均距离 
D ‾ = 1 N Σ j = 1 N N j D ‾ j
(g)判别分裂、合并及迭代运算 
1.若迭代运算次数已达到I次,即最后一次迭代,则置θc=0,转至第k步。 
2.若 
Figure BDA00002274282200075
即聚类中心的数目小于或等于规定值的一半,则转至第h步,对已有聚类进行分裂处理。 
3.若迭代运算的次数是偶数次,或Nc≥2K,不进行分裂处理,转至第k步;否则(即既不是偶数次迭代,又不满足Nc≥2K),转至第h步,进行分裂处理。 
(h)计算每个聚类中样本距离的标准差向量 
σj=(σ1j2j,...,σnj)T
其中向量的各个分量为 
σ ij = 1 N j Σ k = 1 N j ( x ik - z ij ) 2
式中,i=1,2,...,n为样本特征向量的维数,j=1,2,...,Nc,Nc为聚类数,Nj为Sj中的样本个数。 
(i)求每一标准差向量{σj,j=1,2,...,Nc}中的最大分量,以  { σ j max , j = 1,2 , . . . , N c } 代表。 
(j)在任一最大分量集{σjmax,j=1,2,...,Nc}中,若有σjmax>θS,同时又满足如下两个条件之一: 
(a) 
Figure BDA00002274282200083
和Nj>2(θN+1),即Sj中样本总数超过规定值一倍以上, 
(b) N c ≤ K 2
则将Zj分裂为两个新的聚类中心 
Figure BDA00002274282200085
和 
Figure BDA00002274282200086
且Nc加1。 
Figure BDA00002274282200087
中对应于σjmax的分量加上kσjmax,其中0<k≤1; 
Figure BDA00002274282200088
中对应于σjmax的分量减去kσjmax。 
如果本步骤完成了分裂运算,则转至第b步,否则继续。 
(k)计算全部聚类中心的距离 
Dij=||zi-zj||,i=1,2,...,Nc-1,j=i+1,2,...,Nc
(l)比较Dij与θc的值,将Dij<θc的值按最小距离次序递增排列,即 
{ D i 1 j 1 , D i 2 j 2 , . . . , D i L j L } ,
式中, D i 1 j 1 < D i 2 j 2 < . . . < D i L j L .
(m)将距离为 
Figure BDA000022742822000811
的两个聚类中心 
Figure BDA000022742822000812
和 合并,得新的中心为: 
z k * = 1 N i k + N j k [ N i k z i k + N j k z j k ] , k=1,2,...,I, 
式中,被合并的两个聚类中心向量分别以其聚类域内的样本数加权,使 
Figure BDA000022742822000815
为真正的平均向量。 
(n)如果是最后一次迭代运算(即第I次),则算法结束;否则,若需要操作者改变输入参数,转至第a步;若输入参数不变,转至第b步。 
在本步运算中,迭代运算的次数每次应加1。 
通过上面isodata聚类算法,可以对视频中的不同运动模式分类。 
(3)特征对应 
我们采用EMD算法(Y.Rubner,C.Tomasi,L.Guibas,The earth mover’s distance as a metric for image retrieval,International Journal of Computer Vision 40(2)(2000)99–121.)来比较特征。 
令P={((pi,wpi)|1≤i≤Cp)}和Q={((qj,wqj)|1≤j≤Cq)}表示两个特征聚类,其中pi和qi表示特征聚类均值,wpi和wqi是特征聚类的权重,Cp和Cq是特征的个数。则这两个特征之间的距离为: 
EMD ( P , Q ) = &Sigma; i = 1 m &Sigma; j = 1 n d ij f ij &Sigma; i = 1 m &Sigma; j = 1 n f ij ,
其中D={dij}是特征聚类mi和mj之间的距离。F=[fij]是pi和pj之间的流量。上面EMD公式受到下面四个公式的约束: 
fij≥0    1≤i≤m,1≤j≤n, 
&Sigma; j = 1 n f ij &le; wp i 1≤i≤m, 
&Sigma; i = 1 m f ij &le; wq j 1≤j≤n, 
&Sigma; i = 1 m &Sigma; j = 1 n f ij = min ( &Sigma; i = 1 m wp i , &Sigma; j = 1 n wq j ) ,
计算得到的EMD值可以当做高斯核函数的核,用于视频检索和学习。 
Kernel(P,Q)=exp(-ρEMD(P,Q)2
其中ρ是核函数参数,在本发明中ρ=1。 
图4为EMD算法的示意图。 
(4)交通视频检索 
将EMD矩阵转化为新的训练矩阵,将训练矩阵每行的数值按照从大到小的顺序排列,则可以找到行数代表的视频跟其它视频的相似度,这样可以达到视频的功能。 
(5)交通视频分类 
我们采用1-NN算法,先训练再分类的步骤,即每次选择一个视频,将EMD矩阵按照待分类的视频和其它视频之间的相似度按照从高到低来排序,则待分类的视频和相似度最高的视频被认为属于同一类型,即完成了对待分类视频的分类。 
对运动模式分割,我们用(Saad Ali and Mubarak Shah,A Lagrangian Particle Dynamics Approach for Crowd Flow Segmentation and Stability Analysis,IEEE International Conference on Computer Vision and Pattern Recognition,2007.)三个视频来做视频分割。第一个视频是密集人群的旋转移动,一个运动模式是顺时针,另一个运动模式是逆时针。第二个视频也是密集人群的运动,一个运动模式是人群从远处走向视频近端,另一个运动模式是人群从近端走向远端。第三个视频是车流,将马路和其它背景分割开来。 
对于交通视频分类,我们用(A.B.Chan and N.Vasconcelos,"Probabilistic Kernels for the Classification of Auto-Regressive Visual Processes".Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,San Diego,2005.)的158个视频数据。根据交通状况,可以将交通状况分为轻度堵塞(light),中都堵塞(medium),和严重堵塞(heavy)。 
则各部分具体实施细节如下: 
1)得到特征矩阵 
对一个视频的每个像素点,计算出特征量:嵌入延迟,嵌入维数,盒维数,信息维数,关联维数,均值和方差。将这7个特征组成一个特征向量来代表这个像素点的时间序列的特征。每个像素点都用这个特征向量来表示。每个视频则变为一个特征向量矩阵。 
2)分割特征矩阵 
利用isodata分割算法,分割特征矩阵。(给出参数)。六个参数设为K=5,θN=1000,θS=0.01,θc=5,L=100,I=7。 
图5为视频运动模式分割结果图。(a)(b)(c)中左边图片为我们选择视频的原始图片,右边为用本文算法得到的分割结果。从实验结果可以看出本发明的算法可以将视频中不同的运动模式分割开。 
3)计算得到EMD矩阵 
我们用EMD算法分别来计算每个特征矩阵和其它所有特征矩阵之间的EMD距离。两个视频之间的EMD距离越小,说明两个视频越相似。计算的部分结果显示在图6中。 
4)交通视频检索。 
用步骤3得到的EMD矩阵作为高斯函数的核,可以得到一个新的训练矩阵。 
图7为将EMD矩阵作为高斯核函数得到的训练矩阵的部分结果图。 
图8为交通视频检索部分结果图。 
5)交通视频分类。 
我们选择用1-NN算法来做识别,即将EMD矩阵按照待分类的视频和其它视频之间的相似度按照从高到低来排序,则待分类的视频和相似度最高的视频被认为属于同一类型,这样就完成了对待分类视频的分类。 
图9为交通视频不同特征组合的识别率的结果图,其中: 
1:【嵌入延迟,嵌入维数,盒维数,信息维数,关联维数,像素方差】 
1:【嵌入延迟,嵌入维数,盒维数,像素方差】 
1:【嵌入延迟,嵌入维数,盒维数,信息维数,像素方差】 
1:【嵌入延迟,嵌入维数,信息维数,关联维数,像素方差】 
1:【嵌入延迟,嵌入维数,盒维数,关联维数,像素方差】 
1:【嵌入延迟,嵌入维数,信息维数,像素方差】 
1:【嵌入延迟,嵌入维数,关联维数,像素方差】。 

Claims (2)

1.一种基于混沌特征量视频运动模态分割和交通状况的识别方法,其特征在于,该方法包括如下步骤:
第一步,计算特征向量矩阵:将视频里每个随时间变化的像素看作一个混沌时间序列,计算每个混沌时间序列的嵌入维数,嵌入时间延迟,盒维数,信息维数,关联维数,平均值和方差,并组成一个特征向量,视频的每个像素点位置就由这个特征向量来表示,得到特征向量矩阵;
第二步,视频分割:根据第一步中得到的特征向量矩阵,利用Isodata算法对这个特征向量矩阵聚类;
第三步,比较聚类结果:利用EMD方法对第二步得到的聚类结果进行比较,得到EMD比较结果矩阵;
第四步,视频检索:将第三步得到的EMD比较结果矩阵中的每个值作为高斯函数的核,计算得到一个新的训练矩阵,将训练矩阵每行的数值按照从大到小的顺序排列,找到行数代表的视频跟其它视频的相似度;
第五步,视频分类:将第四步得到的训练矩阵,每次选出一个视频来作为待分类的视频,其余视频全部用来训练,且已经知道用来训练的视频属于哪一类;然后将训练矩阵按照待分类的视频和其它视频之间的相似度按照从高到低来排序,则待分类的视频和相似度最高的视频分为同一类型,依次将每个视频作为待分类视频,完成对待分类视频的分类。
2.根据权利要求1所述的基于混沌特征量视频运动模态分割和交通状况的识别方法,其特征在于,所述的Isodata算法具体步骤如下:
(a)设置聚类分析控制参数,
(b)初始分类,
(c)按照控制参数给定的要求,将前一次获得的聚类进行分裂和合并处理,以获得新的聚类中心和分类集,
(d)迭代计算各项指标,判别聚类结果是否符合要求,以此反复经过多次迭代计算,直至得到理想的聚类结果。由于每个特征向量矩阵代表一个视频,因此对向量矩阵的聚类结果,即为对视频聚类的结果,即完成了视频分割。
CN2012103992512A 2012-10-18 2012-10-18 基于混沌特征量视频运动模态分割和交通状况识别的方法 Pending CN102930294A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012103992512A CN102930294A (zh) 2012-10-18 2012-10-18 基于混沌特征量视频运动模态分割和交通状况识别的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012103992512A CN102930294A (zh) 2012-10-18 2012-10-18 基于混沌特征量视频运动模态分割和交通状况识别的方法

Publications (1)

Publication Number Publication Date
CN102930294A true CN102930294A (zh) 2013-02-13

Family

ID=47645091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012103992512A Pending CN102930294A (zh) 2012-10-18 2012-10-18 基于混沌特征量视频运动模态分割和交通状况识别的方法

Country Status (1)

Country Link
CN (1) CN102930294A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103268498A (zh) * 2013-04-21 2013-08-28 郑州轻工业学院 一种感兴趣区域模糊图像语义理解的方法
CN104866500A (zh) * 2014-02-25 2015-08-26 腾讯科技(深圳)有限公司 图片分类展示方法和装置
CN107424147A (zh) * 2017-07-03 2017-12-01 苏州珂锐铁电气科技有限公司 基于隐含狄利克雷分布模型的图形缺陷识别和定位方法
CN107423695A (zh) * 2017-07-13 2017-12-01 苏州珂锐铁电气科技有限公司 基于二分图的动态纹理识别方法
WO2019127940A1 (zh) * 2017-12-25 2019-07-04 上海七牛信息技术有限公司 视频分类模型训练方法、装置、存储介质及电子设备
CN110046209A (zh) * 2019-03-26 2019-07-23 太原科技大学 一种基于高斯模型的轨迹停止点提取方法
CN111027606A (zh) * 2019-11-29 2020-04-17 中国科学院空间应用工程与技术中心 一种多模式时间序列异常检测方法、存储介质和设备
CN112329663A (zh) * 2020-11-10 2021-02-05 西南大学 一种基于人脸图像序列的微表情时刻检测方法及装置
CN113688904A (zh) * 2021-08-24 2021-11-23 大连海事大学 一种智能船舶系统设备动态特征参数提取方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101515328A (zh) * 2008-12-18 2009-08-26 东华大学 一种面向鉴别的具有统计不相关性的局部保持投影方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101515328A (zh) * 2008-12-18 2009-08-26 东华大学 一种面向鉴别的具有统计不相关性的局部保持投影方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANTONI B. CHAN等: "Modeling, Clustering, and Segmenting Video with Mixtures of Dynamic Textures", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 30, no. 5, 31 May 2008 (2008-05-31), pages 909 - 925 *
B. B. CHAUDHURI等: "Texture Segmentation Using Fractal Dimension", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 17, no. 1, 31 January 1995 (1995-01-31), pages 72 - 76 *
SAAD ALI等: "Chaotic Invariants for Human Action Recognition", 《IEEE》, 31 December 2007 (2007-12-31), pages 1 - 8 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103268498B (zh) * 2013-04-21 2016-06-29 郑州轻工业学院 一种感兴趣区域模糊图像语义理解的方法
CN103268498A (zh) * 2013-04-21 2013-08-28 郑州轻工业学院 一种感兴趣区域模糊图像语义理解的方法
CN104866500B (zh) * 2014-02-25 2021-10-15 腾讯科技(深圳)有限公司 图片分类展示方法和装置
CN104866500A (zh) * 2014-02-25 2015-08-26 腾讯科技(深圳)有限公司 图片分类展示方法和装置
CN107424147A (zh) * 2017-07-03 2017-12-01 苏州珂锐铁电气科技有限公司 基于隐含狄利克雷分布模型的图形缺陷识别和定位方法
CN107423695A (zh) * 2017-07-13 2017-12-01 苏州珂锐铁电气科技有限公司 基于二分图的动态纹理识别方法
WO2019127940A1 (zh) * 2017-12-25 2019-07-04 上海七牛信息技术有限公司 视频分类模型训练方法、装置、存储介质及电子设备
CN110046209A (zh) * 2019-03-26 2019-07-23 太原科技大学 一种基于高斯模型的轨迹停止点提取方法
CN110046209B (zh) * 2019-03-26 2022-08-09 太原科技大学 一种基于高斯模型的轨迹停止点提取方法
CN111027606A (zh) * 2019-11-29 2020-04-17 中国科学院空间应用工程与技术中心 一种多模式时间序列异常检测方法、存储介质和设备
CN112329663A (zh) * 2020-11-10 2021-02-05 西南大学 一种基于人脸图像序列的微表情时刻检测方法及装置
CN113688904A (zh) * 2021-08-24 2021-11-23 大连海事大学 一种智能船舶系统设备动态特征参数提取方法
CN113688904B (zh) * 2021-08-24 2023-08-22 大连海事大学 一种智能船舶系统设备动态特征参数提取方法

Similar Documents

Publication Publication Date Title
Adarsh et al. YOLO v3-Tiny: Object Detection and Recognition using one stage improved model
CN102930294A (zh) 基于混沌特征量视频运动模态分割和交通状况识别的方法
Hur et al. Multi-lane detection in urban driving environments using conditional random fields
US9224046B2 (en) Multi-view object detection using appearance model transfer from similar scenes
Yu et al. Learning hierarchical features for automated extraction of road markings from 3-D mobile LiDAR point clouds
Lynen et al. Placeless place-recognition
CN102254303B (zh) 遥感图像分割方法及遥感图像检索方法
Zhou et al. Robust vehicle detection in aerial images using bag-of-words and orientation aware scanning
CN105389550B (zh) 一种基于稀疏指引与显著驱动的遥感目标检测方法
CN102169584B (zh) 基于分水岭和treelet的遥感图像变化检测方法
CN105261017A (zh) 基于路面约束的图像分割法提取行人感兴趣区域的方法
Tao et al. Scene context-driven vehicle detection in high-resolution aerial images
Derpanis et al. Classification of traffic video based on a spatiotemporal orientation analysis
Wang et al. Probabilistic inference for occluded and multiview on-road vehicle detection
CN102156995A (zh) 一种运动相机下的视频运动前景分割方法
CN106611420A (zh) 基于反卷积网络和素描图方向约束的sar图像分割方法
CN103530633A (zh) 一种图像局部不变特征的语义映射方法及语义映射系统
CN103886585A (zh) 一种基于排序学习的视频跟踪方法
Niknejad et al. Occlusion handling using discriminative model of trained part templates and conditional random field
CN102902976A (zh) 一种基于目标及其空间关系特性的图像场景分类方法
Elmikaty et al. Car detection in aerial images of dense urban areas
CN104778699A (zh) 一种自适应对象特征的跟踪方法
Gabb et al. Efficient monocular vehicle orientation estimation using a tree-based classifier
Chen et al. Context-aware lane marking detection on urban roads
Sommer et al. A comprehensive study on object proposals methods for vehicle detection in aerial images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130213