CN102915451A - 基于混沌不变量的动态纹理识别方法 - Google Patents
基于混沌不变量的动态纹理识别方法 Download PDFInfo
- Publication number
- CN102915451A CN102915451A CN2012103986367A CN201210398636A CN102915451A CN 102915451 A CN102915451 A CN 102915451A CN 2012103986367 A CN2012103986367 A CN 2012103986367A CN 201210398636 A CN201210398636 A CN 201210398636A CN 102915451 A CN102915451 A CN 102915451A
- Authority
- CN
- China
- Prior art keywords
- video
- dynamic texture
- chaos
- matrix
- sorted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
一种基于混沌不变量的动态纹理识别方法,包括步骤:1)计算特征向量矩阵:将视频每个位置随时间变化的像素看作混沌时间序列,计算每个混沌时间序列的嵌入维数,嵌入时间延迟,盒维数,信息维数,关联维数,平均值和方差,并组成一个特征向量,视频的每个像素点位置就由这个特征向量来表示,得到特征向量矩阵;2)对步骤1)中得到的特征向量矩阵进行EDM识别或者BOW识别。本发明通过提取视频的特征量,并组成新的特征向量可以很好的描述动态纹理视频,可广泛用于动态纹理识别系统、动态纹理检测系统、动态纹理检索系统、军事目标检测分类系统等各类民用及军用系统中,具有广阔的市场前景和应用价值。
Description
技术领域
本发明涉及的是一种计算机模式识别技术领域的分类方法,具体地说,涉及的是一种基于混沌不变量的动态纹理识别方法。
背景技术
动态纹理是计算机视觉与模式识别领域的研究热点,我们日常所见到的烟雾,河水,火焰等都可以看作是动态纹理。视频图像中对动态纹理分类在民用和军用上均具有广泛的应用前景。针对这个问题,国内外学者提出了很多方法,主要的研究方法可以分为三种:基于物理方法是将动态纹理的第一个主成分建成模型。这个模型可以用于纹理合成,如合成烟,水等。这种方法的缺点是它是针对某一类特例的动态纹理,因此很难用于对多个类别的动态纹理识别。第二种方法是基于图像的方法。这种方法主要是提取图像与图像之间的运动信息,如提取正则流,光流。这些运动信息的提取需要基于局部平滑和亮度一直的假设。因此对于不满足上述假设的视频,此方法很难凑效。第三种方法是统计模型的方法。它是同时对动态纹理的空间信息和统计信息进行学习。
经对现有技术文献的检索发现,Soatto,S.等在《International Journal of computervision》(pp.91-109,2003)上发表“Dynamic Textures”(动态纹理,计算机视觉)。该文提出了用线性系统来对动态纹理建模,通过对模型分类,来达到对动态纹理的识别分类。线性系统基于马尔科夫性质的,即当前时刻的观测值受制于前一时刻的观测值,而且系统是线性的。但是我们所遇到的动态纹理视频并不能保证具有马尔科夫性质或者线性的性质。S.Ali等在《IEEE International Conference on ComputerVision》(2007)上发表“Chaotic invariants for human action recognition”(基于混沌特征的动作识别,IEEE计算机视觉国际会议)。该文将人的动作轨迹转换为混沌特征量,取得了很好的识别效果。但是此文用到的混沌特征量是描述系统的运动状态的,并不能用来对动态纹理进行识别。
发明内容
本发明的目的在于针对上述现有技术中存在的不足,提出一种基于混沌不变量的动态纹理识别方法,应用于动态纹理模式分类问题,主要的创新点包括:1)将视频每个位置随时间变化的像素看作混沌时间序列。应用混沌理论来得到混沌时间序列的相关特征量,并组成一个新的特征向量来描述混沌时间序列。这样每个像素点都用一个特征向量来描述,视频就可以用一个特征矩阵来表示;2)通过实验验证,本文提出的特征向量能够很好的对动态纹理进行描述;3)用两个分类算法(基于词袋的分类算法(bag of word(BOW))和基于地球移动距离earth mover’s distance(EMD)的分类算法)来对特征矩阵分类:(a)用meanshift对每个特征矩阵分割,然后用EMD算法来比较每个特征矩阵之间的相似度,然后用K最近邻(k-nearestneighbor(KNN))算法对特征矩阵分类;(b)用BOW方法,即先将所有特征矩阵组成一个矩阵,用kmeans聚类得到各个聚类中心,然后计算各个特征矩阵含有多少个聚类中心,通过KNN将特征矩阵分类。这两个算法在动态纹理识别试验中取得了较高的识别率。
本发明是通过以下技术方案实现的:
一种基于混沌不变量的动态纹理识别算法,其特点在于采用了混沌特征量来描述动态纹理,该方法包括如下步骤:
第一步,将视频里面每个随时间变化的像素点看作一个混沌时间序列。计算每个混沌时间序列的嵌入维数,嵌入时间延迟,盒维数,信息维数,关联维数,平均值和方差。将上面计算得到的特征向量组成一个特征向量,视频的每个像素点位置就由这个特征向量来表示。这样一个视频就变成了一个特征向量矩阵;
第二步,根据第一步中得到的特征向量矩阵,利用均值漂移(meanshift)算法对这个特征向量矩阵聚类。相比于传统的k-均值(k-means)算法,混合高斯建模(Gaussian mixture model),meanshift算法只需要一个带宽参数,即可对特征向量聚类,并且可以对非高斯情形聚类,对噪声也有一定的抗干扰作用。
然后用EMD距离来比较meanshift聚类结果。EMD算法是基于解决运输问题(transportation problem)的经典算法。本发明中用EMD算法来比较两个特征向量矩阵之间的差异。分别计算每个特征向量矩阵与其它特征向量矩阵的EMD距离,从而得到一个EMD比较结果矩阵。这个EMD比较矩阵中的每个数值即为相应的横向坐标代表的视频和纵向坐标代表的视频之间的距离,距离越小,代表两个视频越接近,每个视频跟自己的EMD距离为零。
将EMD比较结果矩阵中的每个值作为高斯函数的核,得到一个新的训练矩阵。采取先训练再分类的方法来对动态纹理分类。训练方法分为两种,一种是每次拿出一个视频来做测试(one vs all),另一种是每次拿出某个类型的一半数目的视频来做测试(50%to50%)。每次拿出一个视频来做测试的方法如下,每次我们选出一个视频来作为待分类的视频,其余视频全部用来训练,且已经知道用来训练的视频属于哪一类。然后将训练矩阵按照待分类的视频和其它视频之间的相似度按照从高到低来排序,则待分类的视频和相似度最高的视频分为同一类型。依次将每个视频作为待分类视频,即完成了对待分类视频的分类。50% to 50%每次拿出某个类型的一半数目的视频来做测试,其余步骤上述方法类似。我们针对不同的数据库选择不同的训练方法。
或者第二步,将第一步中得到的每个视频的特征向量矩阵串联合并成一个特征矩阵,用kmeans算法聚类,得到各个聚类中心。将每个特征向量矩阵按照聚类中心聚类,得到描述聚类中心的直方图。用最近邻算法对动态纹理视频进行分类。采取先训练再分类的方法。同样,训练方法分为两种,一种是每次拿出一个视频来做测试(one vs all),另一种是每次拿出某个类型的一半数目的视频来做测试(50%to50%)。One vs all训练方法是,每次我们选出一个视频来作为待分类的视频,其余视频全部用来训练,且已经知道用来训练的视频属于哪一类。然后将待分类视频的直方图和训练视频的直方图比较欧式距离,待分类视频和距离最近的训练视频分为同一类,依次将每个视频作为待分类视频,即完成了对待分类视频的分类。50%to50%每次拿出某个类型的一半数目的视频来做测试,其余步骤上述方法类似。我们针对不同的数据库选择不同的训练方法。
与现有技术相比,本发明的技术效果是利用用混沌特征量来描述视频中随时间变化的像素值,从而得到描述视频的特征矩阵。分别用基于地球距离和基于词袋的两种算法来对特征矩阵分类。实验结果表明本发明提出的特征向量能够很好的描述动态纹理,并且对摄像头的抖动和图像噪声具有一定的鲁棒性。
本发明可应用于动态纹理识别、动态纹理检测、动态纹理检索系统、军事目标检测分类系统等各类民用及军用系统中,具有广阔的市场前景和应用价值。
附图说明
图1a为本发明中EDM识别的流程图。
图1b为本发明中BOW识别的流程图。
图2为像素点时间序列及其计算嵌入延迟和嵌入维数的示意图。
图3为用EMD方法计算各个视频之间的距离的部分结果。
图4为用EMD方法将UCLA-dataset分为9类的混淆矩阵图。
图5为用EMD方法将UCLA-dataset分为8类的混淆矩阵图。
图6为用EMD方法将UCLA-pan-dataset分为9类的混淆矩阵图。
图7为用EMD方法将UCLA-pan-dataset分为8类的混淆矩阵图。
图8为用EMD方法将UCLA-noise-dataset分为9类的混淆矩阵图。
图9为用EMD方法将UCLA-noise-dataset分为8类的混淆矩阵图。
图10为选取的4个视频在词袋算法下得到的直方图。
图11为用词袋方法将UCLA-dataset分为9类的混淆矩阵图。
图12为用词袋方法将UCLA-dataset分为8类的混淆矩阵图。
图13为用词袋方法将UCLA-pan-dataset分为9类的混淆矩阵图。
图14为用词袋方法将UCLA-pan-dataset分为8类的混淆矩阵图。
图15为用词袋方法将UCLA-noise-dataset分为9类的混淆矩阵图。
图16为用词袋方法将UCLA-noise-dataset分为8类的混淆矩阵图。
具体实施方式
为了更好地理解本发明的技术方案,下面结合附图对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明包括下列步骤:
(1)计算得到特征向量矩阵
如图1所示,本实施例的目的首先是得到每个随时间变化的像素点的特征量。然后将特征量组成特征向量,视频中的每个像素点就由这个特征向量来表示。从而将整个视频变为特征向量矩阵。我们先介绍混沌理论的基本概念。
(1.1)混沌理论介绍:
混沌系统是看似杂乱无章的随机运动,实际则含有一定的确定性运动的系统。通过映射,可以将一维的混沌时间序列映射到高维空间,从而得到某种规律性运动。混沌特征不变量可以用来刻画混沌运动的某个方面特征的量。
对一个给定的时间序列x(t)=[x1(t),x2(t),…,xn(t)]∈Rn,如果找到某个合适的嵌入维数d和嵌入延迟τ,则一维时间序列可以表示为:
嵌入维数和嵌入延迟的选取很重要,如果选取不当,则一维时间序列不能很好的映射为多维系统,系统特性就不能很好的保持不变性。下面我们介绍计算嵌入维数和嵌入延迟的方法。
嵌入延迟可以通过计算时间序列互信息得到(A.M.Fraser et.al.,“IndependentCoordinates for Strange Attractors from Mutual Information,”Phys.Rev.,1986.)。首先得到时间序列的最大最小值min(xτ)和max(xτ),将区间[min(xτ),max(xτ)]分成长度相同的小区间。计算:
其中Ps和Pq分别表示变量xτ在第s个区间和在第q个区间的概率,Ps,q表示xτ在第s个区间xτ-τ在第q个区间的联合概率。I(τ)的第一个局部最小值选为嵌入延迟,且τ>1。图3显示的是目标y方向位置的时间序列值。图3画出了计算的互信息得到的可能的嵌入延迟的值。第一个最小值被选为嵌入延迟。
嵌入维数d通过伪最近邻方法得到(M.B.Kennel et.al,“Determining EmbeddingDimension for Phase Space Reconstruction using A Geometrical Construction,”Phys.Rev.A,45,1992.)。其思想是在重构空间中,如果两点比较临近,则在下一时刻仍然会很接近。计算嵌入维数方法如下:首先在时间序列X选择一点x(i),在其领域范围ε选择点x(j),计算在d-1维x(i)和x(j)之间的距离:
如果Ri大于阈值RT,则认为p(i)有伪最近邻。利用上述公式计算d=1,2,…,直到Ri<RT为止。
图2为计算嵌入延迟和嵌入维数的示意图。
(1.2)混沌特征不变量
我们用到的混沌特征不变量有以下三个:盒维数,信息维数和关联维数。盒维数:盒维数是分形维数的一种,它刻画着序列的混沌几何特征。令DF是盒维数,如果一个点集是由一定数量的盒子覆盖,且每个盒子至少含有一个点,则对一个自相似集。
信息维数:信息维数表示的是信息尺度和轨迹点半径的比。
关联维数:关联维数是状态空间密度的变化在邻域半径的度量。
我们还用到下面这两个特征:
时间序列均值:对像素点的时间序列值求平均得到平均值。
时间序列方差:对像素点的时间序列值求方差。
我们将嵌入延迟,嵌入维数,盒维数,信息维数,关联维数,均值,方差组成一个特征向量。
(2)EMD识别方法
EMD识别方法详细流程见图1(a),主要分为以下三个步骤:特征聚类,特征对应,1-最近邻(1-NN)分类。
(2.1)特征聚类
本发明采用meanshift算法(D.Comaniciu and P.Meer,“Mean Shift:A RobustApproach Toward Feature Space Analysis,”IEEE Trans.Pattern Analysis and MachineIntelligence,vol.24,no.5,pp.603-619,May2002.)对特征进行聚类。具体算法如下:
给定一组特征集合,xi,i=1,2,…,n,meanshift算法由下式给出:
其中G为核函数,g是G的剖面核函数。
核函数的定义:
定义:X代表一个d维的欧氏空间,x是该空间中的一个点,用一列向量表示.x的模||x||2=xTx.R表示实数域.如果一个函数K:X→R存在一个剖面函数k:[0,∞]→R,即
K(x)=k(||x||2)(5)
并且满足:
(1)k是非负的.
(2)k是非增的,即如果a<b那么k(a)≥k(b).
那么,函数K(x)就被称为核函数.
剖面核函数的定义:
核函数K(x)的剖面函数k(x),使得K(x)=k(||x||2);
k(x)的负导函数g(x),即g(x)=-k′(x),其对应的核函数G(x)=g(||x||2)。
我们以对UCLA-dataset中的聚类步骤为例,来说明本发明用meanshift算法聚类的流程:
(1)随机选择某个区域i,选择其中的一个特征向量xi,令yi,1=xi。
(2)根据上述公式计算yi,j+1直到收敛||yi,j+1-yi,j+2||<Thr,Thr=0.00002为设定的阈值。
(3)将邻域半径为ε=0.02的都聚类为yi,c。
(4)对每个类分配一个类标识。
(2.2)特征对应
我们采用EMD方法(Y.Rubner,C.Tomasi,L.Guibas,The earth mover’s distanceas a metric for image retrieval,International Journal of Computer Vision40(2)(2000)99–121.)来比较特征。
令P={((pi,wpi)|1≤i≤Cp)}和Q={((qj,wqj)|1≤j≤Cq)}表示两个特征聚类,其中pi和qi表示特征聚类均值,wpi和wqi是特征聚类的权重,cp和cq是特征的个数。则这两个特征之间的距离为:
其中D={dij}是特征聚类mi和mj之间的距离。F=[fij]是pi和pj之间的流量。公式(6)受到下面公式的约束:
fij≥0 1≤i≤m,l≤j≤n,
计算得到的EMD值可以当做高斯核函数的核,用于动态纹理分类。公式如下:
Kernel(P,Q)=exp(-ρEMD(P,Q)2)
其中ρ是核函数参数,在本发明中ρ=1。
(2.3)动态纹理分类
将EMD矩阵转化为新的训练矩阵,然后我们采用先训练再分类的步骤,我们以UCLA-dataset为例来说明分类方法。如果我们选用one vs all算法,则每次选出一个视频来作为待分类的视频,其余视频全部用来训练,这些训练的视频已知属于哪一个类型。1-NN算法的原理:即将训练矩阵按照待分类的视频和其它视频之间的相似度按照从高到低来排序,则待分类的视频和相似度最高的视频被认为属于同一类型,即完成了对待分类视频的分类。如果我们选用50% to 50%算法,则每次选出某类视频中一半数目的视频来作为待分类视频,其余同上面的one vs all算法。
(3)BOW识别方法
我们用(Hofmann,T.:Unsupervised learning by probabilistic latent semantic analysis.Machine Learning 41(2001)177-196)的词袋思想来做动态纹理分类。按照词袋方法,我们将每个类看做文本(document),特征看做词(word),详细BOW识别流程见图1(b)。先用k-均值(k-means)算法对所有视频的特征进行聚类,形成代码本(codebook)。所有视频的特征向量以代码本里面的向量为聚类中心,进行聚类,形成直方图。每个待识别的动态纹理视频的直方图与训练阶段得到的每个直方图用k-最近邻(K-nearest neighbor)来识别。我们采用先训练再分类的步骤,同样分为one vs all算法和50% to 50%算法。
实验数据采用UCLA动态纹理据库,见文章(P.Saisan,G.Doretto,Y.Wu,and S.Soatto,“Dynamic texture recognition,”in IEEE Conf.CVPR,vol.2,2001,pp.58–63.)。
UCLA动态纹理据库包括50类纹理,共200个视频。可以将同一类型但是拍摄角度不同的动态纹理归为一类,即将次数据库分为9类,包括沸水(boiling),火(fire),花(flowers),植物(plant),喷泉(fountain),海水(sea),烟雾(smoke),水(water),瀑布(water fall)。或者去掉植物这一类,进一步分为8类。同时为了验证本发明算法的鲁棒性,我们制作了另外两个新的动态纹理数据库,UCLA-pan-dataset和UCLA-noise-dataset。UCLA-pan-dataset用一个48*48的小窗口从视频左边向右边移动,小窗口里面的视频可以模拟摄像机抖动而得到的视频,对每个视频都这样操作,可以得到200个新的视频。同理将小窗口从视频右边向左边移动,得到另一组200个新的数据。因此UCLA-pan-dataset共400个数据。UCLA-noise-dataset对原始视频的每个像素加入高斯噪声,均值为零,均方差为σ=1。
各部分具体实施细节如下:
1)得到特征矩阵
对每个视频的每个随时间变化的像素点,计算出特征量:嵌入延迟,嵌入维数,盒维数,信息维数,关联维数,均值和方差。,将这7个特征组成一个特征向量来代表这个像素点的时间序列的特征。每个像素点都用这个特征向量来表示。每个视频则变为一个特征向量矩阵。
2)EMD识别
对步骤(1)中得到的特征向量矩阵,按照图1(a)EMD识别方法,我们用meanshift算法来实现特征聚类。对UCLA-dataset,UCLA-pan-dataset和UCLA-noise-dataset三个数据库,我们在mean shift算法中设定的带宽都是0.02。
根据mean shift对特征矩阵的聚类结果,我们用EMD算法分别来计算每个特征矩阵和其它所有特征矩阵之间的EMD距离。两个视频之间的EMD距离越小,说明两个视频越相似。计算的部分结果显示在图3中。
将EMD矩阵作为高斯函数的核,可以得到一个新的训练矩阵。我们选择one vsall或者50% to 50%的训练算法。用KNN算法来做识别,即将训练矩阵按照待分类的视频和其它视频之间的相似度按照从高到低来排序,则待分类的视频和相似度最高的视频被认为属于同一类型,这样就完成了对待分类视频的分类。
图4为用EMD算法将UCLA-dataset分为9类的混淆矩阵图,识别率为98.3%。
图5为用EMD算法将UCLA-dataset分为8类的混淆矩阵图,识别率为97.6%。
图6为用EMD算法将UCLA-pan-dataset分为9类的混淆矩阵图,识别率为84.5%。
图7为用EMD算法将UCLA-pan-dataset分为8类的混淆矩阵图,识别率为86.7%。
图8为用EMD算法将UCLA-noise-dataset分为9类的混淆矩阵图,识别率为96.9%。
图9为用EMD算法将UCLA-noise-dataset分为8类的混淆矩阵图,识别率为94.57%。
3)BOW识别
对步骤(1)中得到的特征向量矩阵,按照图1(b)BOW识别方法,将所有特征矩阵串联在一起,组成一个大的特征矩阵,然后用k-means来对这个特征矩阵聚类,得到代码本。每个特征向量矩阵根据代码本聚类,得到表示该特征向量的直方图。图10为选取的4个视频在词袋算法下得到的直方图。
我们选择one vs all或者50% to 50%的训练算法。用KNN算法来做识别,即比较不同直方图之间的欧式距离。将一个视频作为待测试视频,其它视频用作训练视频。比较待测试视频的直方图和训练视频直方图距离,将待测视频和距离最小视频划为同一类。
图11为用词袋算法将UCLA-dataset分为9类的混淆矩阵图,识别率为84%。
图12为用词袋算法将UCLA-dataset分为8类的混淆矩阵图,识别率为77%。
图13为用词袋算法将UCLA-pan-dataset分为9类的混淆矩阵图,识别率为77.8%。
图14为用词袋算法将UCLA-pan-dataset分为8类的混淆矩阵图,识别率为62.5%。
图15为用词袋算法将UCLA-noise-dataset分为9类的混淆矩阵图,识别率为85%。
图16为用词袋算法将UCLA-noise-dataset分为8类的混淆矩阵图,识别率为89.1%。
从UCLA-dataset的分类结果可以看出基于EMD算法和基于词袋算法都能够对动态视频取得较好的分类结果。
从UCLA-pan-dataset的分类结果可以看出本发明的算法在缓慢的摄像头移动的环境下取得了很好的识别率。
从UCLA-noise-dataset的分类结果可见本发明的算法在较小的噪声环境下取得了很好的识别率。
Claims (5)
1.一种基于混沌不变量的动态纹理识别方法,其特征在于,该方法包括如下步骤:
1)计算特征向量矩阵:将视频每个位置随时间变化的像素看作混沌时间序列,计算每个混沌时间序列的嵌入维数,嵌入时间延迟,盒维数,信息维数,关联维数,平均值和方差,并组成一个特征向量,视频的每个像素点位置就由这个特征向量来表示,得到特征向量矩阵;
2)对步骤1)中得到的特征向量矩阵进行EDM识别或者BOW识别。
2.根据权利要求1所述的基于混沌不变量的动态纹理识别方法,其特征在于,所述的EDM识别具体步骤如下:
首先,将步骤1)中得到的特征向量矩阵,利用meanshift算法对这个特征向量矩阵聚类;
然后,分别计算每个特征向量矩阵与其它特征向量矩阵的EMD距离,得到一个EMD比较结果矩阵,该EMD比较结果矩阵中相应的横向坐标代表视频、纵向坐标代表视频之间的距离;
将EMD比较结果矩阵中的每个值作为高斯函数的核,得到一个新的训练矩阵,
最后,对动态纹理视频进行分类。
3.根据权利要求1所述的基于混沌不变量的动态纹理识别方法,其特征在于,所述的BOW识别具体步骤如下:
首先,将步骤1)中得到的每个视频的特征向量矩阵串联合并成一个特征矩阵,利用kmeans算法聚类,得到各个聚类中心;
然后,将每个特征向量矩阵按照聚类中心聚类,得到描述聚类中心的直方图;
最后,对动态纹理视频进行分类。
4.根据权利要求2或3所述的基于混沌不变量的动态纹理识别方法,其特征在于,所述的对动态纹理视频进行分类的具体分类方法是每次选出一个视频作为待分类的视频,其余视频全部用来训练,且已经知道用来训练的视频属于哪一类,然后将待分类的视频的直方图和训练视频的直方图比较欧式距离,待分类视频和距离最近的训练视频分为同一类,依次将每个视频作为待分类视频,即完成了对待分类视频的分类。
5.根据权利要求2或3所述的基于混沌不变量的动态纹理识别方法,其特征在于,所述的对动态纹理视频进行分类的方法是每次拿出某个类型的一半数目的视频来做分类的视频,然后将待分类的视频的直方图和训练视频的直方图比较欧式距离,待分类视频和距离最近的训练视频分为同一类,依次将每个视频作为待分类视频,即完成了对待分类视频的分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012103986367A CN102915451A (zh) | 2012-10-18 | 2012-10-18 | 基于混沌不变量的动态纹理识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012103986367A CN102915451A (zh) | 2012-10-18 | 2012-10-18 | 基于混沌不变量的动态纹理识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102915451A true CN102915451A (zh) | 2013-02-06 |
Family
ID=47613811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012103986367A Pending CN102915451A (zh) | 2012-10-18 | 2012-10-18 | 基于混沌不变量的动态纹理识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102915451A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104951786A (zh) * | 2015-06-08 | 2015-09-30 | 苏州珂锐铁电气科技有限公司 | 基于概率潜在语义分析模型的动态纹理识别和定位方法 |
CN104966093A (zh) * | 2015-05-25 | 2015-10-07 | 苏州珂锐铁电气科技有限公司 | 一种基于深度神经网络的动态纹理识别方法 |
CN106778812A (zh) * | 2016-11-10 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 聚类实现方法和装置 |
CN107423695A (zh) * | 2017-07-13 | 2017-12-01 | 苏州珂锐铁电气科技有限公司 | 基于二分图的动态纹理识别方法 |
CN107424147A (zh) * | 2017-07-03 | 2017-12-01 | 苏州珂锐铁电气科技有限公司 | 基于隐含狄利克雷分布模型的图形缺陷识别和定位方法 |
CN107886509A (zh) * | 2017-11-24 | 2018-04-06 | 苏州珂锐铁电气科技有限公司 | 一种图像缺陷识别方法、电子设备、存储介质及系统 |
CN109255791A (zh) * | 2018-07-19 | 2019-01-22 | 杭州电子科技大学 | 一种基于图卷积神经网络的形状协同分割方法 |
CN109600162A (zh) * | 2018-12-12 | 2019-04-09 | 国网山西省电力公司大同供电公司 | 一种变电站工控网络实时数据传输方法 |
CN112883207A (zh) * | 2021-02-01 | 2021-06-01 | 西北师范大学 | 一种基于特征融合的高安全生物哈希密文语音检索方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101711393A (zh) * | 2007-01-16 | 2010-05-19 | Utc消防及保安公司 | 基于视频的火灾检测的系统和方法 |
CN102509308A (zh) * | 2011-08-18 | 2012-06-20 | 上海交通大学 | 基于混合动态纹理空时显著性检测的运动分割方法 |
-
2012
- 2012-10-18 CN CN2012103986367A patent/CN102915451A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101711393A (zh) * | 2007-01-16 | 2010-05-19 | Utc消防及保安公司 | 基于视频的火灾检测的系统和方法 |
CN102509308A (zh) * | 2011-08-18 | 2012-06-20 | 上海交通大学 | 基于混合动态纹理空时显著性检测的运动分割方法 |
Non-Patent Citations (2)
Title |
---|
ALI S ETC: "Chaotic invariants for human action recognition", 《PROCEEDINGS OF THE 11TH INTERNATIONAL CONFERENCE ON COMPUTER VISION》, 20 October 2007 (2007-10-20), pages 1 - 8, XP031194535, DOI: doi:10.1109/ICCV.2007.4409152 * |
YANG Y ETC: "Complex events detection using datadriven concepts", 《PROCEEDING OF THE 12TH EUROPEAN CONFERENCE ON COMPUTER VISION》, 13 October 2012 (2012-10-13), pages 722 - 735, XP047018999 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966093A (zh) * | 2015-05-25 | 2015-10-07 | 苏州珂锐铁电气科技有限公司 | 一种基于深度神经网络的动态纹理识别方法 |
CN104951786A (zh) * | 2015-06-08 | 2015-09-30 | 苏州珂锐铁电气科技有限公司 | 基于概率潜在语义分析模型的动态纹理识别和定位方法 |
CN106778812A (zh) * | 2016-11-10 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 聚类实现方法和装置 |
CN106778812B (zh) * | 2016-11-10 | 2020-06-19 | 百度在线网络技术(北京)有限公司 | 聚类实现方法和装置 |
CN107424147A (zh) * | 2017-07-03 | 2017-12-01 | 苏州珂锐铁电气科技有限公司 | 基于隐含狄利克雷分布模型的图形缺陷识别和定位方法 |
CN107423695A (zh) * | 2017-07-13 | 2017-12-01 | 苏州珂锐铁电气科技有限公司 | 基于二分图的动态纹理识别方法 |
CN107886509A (zh) * | 2017-11-24 | 2018-04-06 | 苏州珂锐铁电气科技有限公司 | 一种图像缺陷识别方法、电子设备、存储介质及系统 |
CN109255791A (zh) * | 2018-07-19 | 2019-01-22 | 杭州电子科技大学 | 一种基于图卷积神经网络的形状协同分割方法 |
CN109600162A (zh) * | 2018-12-12 | 2019-04-09 | 国网山西省电力公司大同供电公司 | 一种变电站工控网络实时数据传输方法 |
CN112883207A (zh) * | 2021-02-01 | 2021-06-01 | 西北师范大学 | 一种基于特征融合的高安全生物哈希密文语音检索方法 |
CN112883207B (zh) * | 2021-02-01 | 2022-08-02 | 西北师范大学 | 一种基于特征融合的高安全生物哈希密文语音检索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102915451A (zh) | 基于混沌不变量的动态纹理识别方法 | |
Chaudhuri et al. | Multilabel remote sensing image retrieval using a semisupervised graph-theoretic method | |
Melekhov et al. | Siamese network features for image matching | |
Zhao et al. | Learning mid-level filters for person re-identification | |
Li et al. | Contextual bag-of-words for visual categorization | |
Lynen et al. | Placeless place-recognition | |
CN102622607B (zh) | 一种基于多特征融合的遥感图像分类方法 | |
CN102968635B (zh) | 一种基于稀疏编码的图像视觉特征提取方法 | |
CN105574505A (zh) | 一种多摄像机间人体目标再识别的方法及系统 | |
Fidler et al. | Similarity-based cross-layered hierarchical representation for object categorization | |
CN103886585A (zh) | 一种基于排序学习的视频跟踪方法 | |
CN103810500A (zh) | 一种基于有监督学习概率主题模型的地点图像识别方法 | |
CN104281572A (zh) | 一种基于互信息的目标匹配方法及其系统 | |
Rasiwasia et al. | Holistic context modeling using semantic co-occurrences | |
KR102119136B1 (ko) | 지능형 이미지 분류 방법 | |
Huan et al. | Vehicle logo retrieval based on hough transform and deep learning | |
Farhangi et al. | Improvement the bag of words image representation using spatial information | |
Liu et al. | Performance evaluation of whole-image descriptors in visual loop closure detection | |
Chathurani et al. | Content-based image (object) retrieval with rotational invariant bag-of-visual words representation | |
Sun et al. | Indoor scene recognition based on deep learning and sparse representation | |
Fu et al. | Unsupervised feature learning for scene classification of high resolution remote sensing image | |
Shri et al. | Video Analysis for Crowd and Traffic Management | |
Raja et al. | Outdoor scene classification using invariant features | |
Kim et al. | Natural/man-made object classification based on gabor characteristics | |
Kim et al. | Scene classification using pLSA with visterm spatial location |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130206 |