CN101241551A - 基于切向量的步态识别方法 - Google Patents
基于切向量的步态识别方法 Download PDFInfo
- Publication number
- CN101241551A CN101241551A CNA2008100343218A CN200810034321A CN101241551A CN 101241551 A CN101241551 A CN 101241551A CN A2008100343218 A CNA2008100343218 A CN A2008100343218A CN 200810034321 A CN200810034321 A CN 200810034321A CN 101241551 A CN101241551 A CN 101241551A
- Authority
- CN
- China
- Prior art keywords
- gait
- alpha
- partiald
- distance
- distortion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明属于模式识别技术领域,具体为一种基于切向量的步态识别方法。该方法的步骤包括:目标抽取,建立步态能量图,图像连续化,确定具体变形,计算步态间的切距离,最后根据最近临分类器把测试样品归到相应的类中。本发明利用步态能量图把一系列步态帧整合到一张平均图,以消除帧数不同对特征抽取的影响,降低计算复杂度;本发明采用切距离来衡量步态,解决了步态识别中的小样本问题,实验结果表明,本发明方法识别精度高,计算速度快。
Description
技术领域
本发明属于模式识别技术领域,具体涉及一种步态识别方法。
背景技术
步态识别是唯一的可远程识别的生物认证技术,由于其在社会安全,身份认证,视频监控等方面有着巨大的潜在应用价值而受到日益重视。虽然步态识别技术的提出已有一段时间,但目前为止还没形成一个统一的框架。与其他生物认证技术(如人脸识别,虹膜识别,指纹识别等)相比,还显得不成熟,主要表现在缺乏公认的有效的数据库,有效的算法和较高的识别率。另外,步态是人的外在的、动态的表现,且和时空密切联系并具有非接触性、非侵入性和难隐藏性等显著的优势。具体表现在,步态可实现远程检测(>5m),且能在低分辨率意义下进行监控,有较强的鲁棒性;其次,步态识别不需要被观察者的合作就可进行;第三,步态是较难隐藏的,因为越隐蔽可疑性就越大。
目前,步态识别涉及到的技术主要有:背景分离,目标跟踪,机器学习,机器视觉等。而这些技术有些还不是很成熟,所以会给步态识别带来一定的困难。因此,研究步态识别,不是单纯的研究生物认证技术,而是同时对上述技术的研究和发展,步态识别的发展必然会带动上述技术的发展。
尽管步态识别发展不是很完善,但还是有大量的学者对其进行了研究,以下是一些代表文献:
1 BenAbdelkader et al.Gait Recognition Using Image Self-Similarity.In:EURASIPJournal on Applied Signal Processing,2004,4:1-14
2 Kobayashi,T.Otsu,N.Action and simultaneous multiple-person identificationusing cubic higher-order local auto-correlation.In:Proc of the 17th Int.Conf.on Pattern.Recognition,2004,3:741-744
3 Shiqi Yu,Liang Wang,Weiming Hu,Tieniu Tan.Gait analysis for humanidentification in frequency domain.In:Image and Graphics,.HongKong,2004
4 AGUS SANTOSO LIE,ENOKIDA Shuichi,WADA Tomohito,EJIMA Toshiaki,GagalowiczAndré,Philips Wilfried.Magnitude and phase spectra of foot motion for gaitrecognition.In:Proc.of the 11th Int’l Conference on Computer Analysis ofImages and Patterns(CAIP2005),2005,3691:390-397
5 Ju Han;Bhanu,B.Individual Recognition Using Gait Energy Image.Digital ObjectIdentifier 10.1109/TPAMI.pp.316-322,2006
6 Liang Wang Tieniu Tan Huazhong Ning Weiming Hu,Silhouette AnalysisBased Gait Recognition for Human Identification,in:IEEE Transactions onPattern Analysis and Machine Intelligence,12(25),pp.1505-1518,2003
发明内容
本发明的目的在于提出一种识别精度高、计算速度快的步态识别方法。
本发明提出的步态识别方法,包括目标抽取,特征抽取,距离度量,分类识别等步骤。步态的特征抽取相对于其他生物认证技术来说具有特殊性,即是一系列步态帧对应一个样本。这就需要特殊的特征提取技术把单帧特征整合到一起,该过程既可通过先提取单帧特征再整合整体特征,也可通过先整合各步态帧再提取总体特征来实现,两种方法都有相应的代表算法,本发明用的是后者。对于距离的衡量,一般的方法用的都是欧几里德距离,然而,欧几里德距离存在一定的局限性,因此本发明采用切距离来衡量步态,不仅很大程度上解决了模式识别特别是步态识别中遇到的小样本问题,而且取得了相当好的实验效果。综上所述,本发明实现了一种基于切距离的步态识别算法,本发明的流程图见附图1所示。
本发明的主要贡献和特点在于:1)实现了一种背景分离后的目标抽取算法,在噪声不大的情况下能较准确地抽取出目标人物,从而有助于进一步的处理;2)利用步态能量图(GEI)把一系列步态帧整合成一张平均步态图,这样一来可以消除帧数不同对特征抽取的影响,降低计算复杂度和算法复杂性,又可以符合下面要用到的切距离识别方法的要求。步态能量图实际上是步态帧的算术平均,实验结果较好说明了步态帧算术平均能较好地反映步态的特点;3)按上述方法得到步态能量图后,本发明用切距离而不是欧几里德距离来衡量步态间的距离,实验表明这种距离衡量方式有效地解决了步态识别存在的一些问题;4)利用最近临分类器分类,虽然最近临分类器是最原始最简单的分类器,但由于上面用到了切距离对其进行距离衡量,最近临分类器还是非常有效的。5)本发明采用了图像处理,机器视觉,模式识别等技术,第一次把切距离引进步态识别中,取得了比其他方法更好的效果。本发明方法识别精度高,计算速度快。
下面详细给出该发明技术方案中所涉及的各个细节问题的说明:
1、目标抽取
我们采用的数据库是中国科学院计算所的一个步态数据库,该数据库已经将背景分离(附图2是一些例子),本发明要做的工作是在这基础上把目标抽取出来,从而可以进行步态能量图的计算。
对于已经过背景分离的图像数据(步态帧)进行目标抽取,其方法是,先确定目标的中心,再从该中心点分别向上和向下搜索以确定目标人物最高和最低点,然后在得到的目标高度的前提下利用一定长宽比例确定与中心点的左右距离,得到相对中心点上下左右四个距离,这四个距离确定了一个矩形框,包围着要抽取的目标人物。
设B为背景分离后的步态帧,B∈Rm*n,m、n为原图像维数,即分别为原图像的高和宽,H、W分别为抽取目标后得到的图像的高和宽(一般可取H为130-150,W为80-100,在实验中我们取H=140,W=90),首先按下式计算原始帧目标的中心:
设L为最后得到的目标高度,向中心左右扩展的长度为 接着进行按比例放缩,得到最终的高度和宽度相等的目标图像。附图3是用该算法得到的一些结果,我们看到,除了个别噪声比较大的帧之外,本发明采用的算法效果还是比较好的。
2、步态能量图(GEI)
步态识别和利用切距离做的字符识别有一个明显的差别,就是字符是每一幅图对应一个样本,而步态识别中要一系列帧才构成一个样本,而且这些帧数量和初始相位都可以不一致,这就要求我们先处理好这个问题。考虑到基于GEI的步态识别中把一系列步态帧转换成一幅图像再进行处理且取得不错效果,本发明仍然采用GEI作为不同步态序列的代表。
GEI(Gait Energy Image)即步态能量图近年来被用到步态识别中,取得了优于其他很多方法的效果,详细阐述见[5]。步态能量图被如下定义:设B1,B2,…,Bn为一个步态序列,其中Bi∈Rm*1为已化为向量的图像,共有n帧,则步态能量图M被定义为:
以下是步态能量图的数学解释:
设B1,B2,…,Bn的定义与上面的一样,现在找一个向量化的步态M,M∈Rm*1,使其与步态序列的平均方差最小,即:
其中X是所要求的步态能量图。根据线性代数知识,式(3)的解为:
这说明了步态能量图实际上是与步态序列中各帧平均距离差的最优解,通过这种方式将一系列的步态序列转换为一张步态能量图,从而比较不同步态只需比较一张静态的步态能量图,使其他的比较成熟的生物认证技术比如说人脸识别的技术能应用到步态识别上。附图4是步态能量图的一些例子。
3、基于切距离的步态衡量
切距离已经被应用到字符识别技术上,且效果很好,本发明把切距离应用到步态识别上,下面进一步介绍基于切距离的步态识别方法及其实现。
设P,E∈Rm为m维空间上两点,代表两个模式,我们通常采用欧几里德距离来衡量他们的距离,即:
其中Dis表示距离,‖·‖表示模。可以说,这种距离度量能比较好地反映出两个确定模式的相似度,但对于类别之间的距离,这个度量方法就不能很好地表示出类别之间的相似度,因为两个点通常不能代表两个类别的全部特征。切距离正是针对这个问题而提出的。
为了更好地描述整个类的特征,我们可以根据已知的个别样本特征的一些变形来共同描述类特征,即已知样本和经过变形而产生的一系列新模式可张成高维空间上的一个流形,该流形代表一个类别,类别间的距离就是各个流形间的距离。由于流形在几何上仅在局部与欧氏空间同拓,因此,要直接对不同流形进行比较是困难的,一种处理方式是将流形用切向量来近似描述。在此,先定义模式的变形s(P,α),表示模式P经参数为α的变形后生成的新模式,如在图像中s(P,α)可直观地定义为图像P旋转α角度后得到的新图像。这样,经变形后的模式集合为:
SP={x|α,x=s(P,α)}
SP为代表模式P经变形后所组成的流形,规定s(P,0)=P,其中变形s(P,α)是可微的。由于流形SP不能定量地表示出来,我们运用流形在P点的泰勒展开来近似地描述流形SP的元素,即
其中 称为切向量,α∈Rm*1是m维向量,表示变形的种数,α为实数时是一维向量,表示只有一种变形。注意到,泰勒展开的一个条件是在固定点附近展开,所以上述展开式只能近似表示P点附近的流形,即α是一个比较小的数。这反映了切距离的一个特点,即局部变形,而不是整体变形。用泰勒展开来近似流形的另外的好处是可以在局部用线性流形来近似表示非线性流形,从而使计算流形间的距离变得简单。
这样,定义两个流形间的切距离如下:设TP,TE是模式P,E根据式(6)得到的线性流形,则P,E间的切距离定义为两线性流形间的距离,即:
运用(6),我们把TP,TE写成:
TP(αP)=P+LPαP (8)
TE(αE)=E+LEαE (9)
其中
这是一个最小平方差问题,运用线性代数相关知识,得到:
其中 LE T为LE的转置,Lp T为Lp的转置。
将(10)式、(11)式代入(8)式、(9)式进而再代入(7)式,可求得P,E间的切距离。切距离很好地描述了两个流形间的距离,其优越性见附图5。
切距离可以有效地解决欧氏距离的局限性,目标抽取的不准确性,一些步态的几何变换的不变性和步态的小样本性质的问题。
基于切距离的步态识别的具体步骤归纳如下:
(1)目标抽取
本发明第一步先用(1)式对分离好背景的步态帧进行目标抽取,得到一系列待处理的步态目标。
(2)建立步态能量图(GEI)
采用GEI作为不同步态序列的特征。
(3)图像连续化
得到步态能量图后,进行图像的连续化处理。在上述的讨论中,模式变形组成的流形都是可微的,而现在考虑的图像则是离散的。因此,要将离散的图像转换成连续的图像。即应找到一可微函数f,使f(x,y)=G(P),其中P代表图像矩阵,G为一映射。使图像连续化的方法有高斯卷积法和双线性插值法等,其中高斯函数和原图像进行卷积,取得比较好的效果。用高斯函数进行图像连续化具体描述如下:
其中*代表卷积,gσ代表均值为零,方差为σ的二维连续高斯分布,P为原始离散图像。经连续化后的轮廓图像见附图6。
(4)确定具体变形
经过连续化处理后,每帧图像都是一个连续函数f(x,y),接下来便是确定采用哪些变形来衡量步态的敏感因素。本发明采用的变形有平移(X-平移(X-translation),Y-平移(Y-translation)),旋转(Rotation),放缩(Scaling),平行双曲变形(Parallel hyperbolictransformation),斜双曲变形(Diagonal hyperbolic transformation)。可以选用其中一种或几种变形的组合。具体例子见附图7。
(5)计算切距离
经过一系列变换操作后,便可在这些变换组成的子空间上进行步态间切距离的计算。设我们共引进m种变换,则这m种变换组成了一个m维切空间,那么任意一个模式的变换都可由这m维切空间的基线性表示出来。这样,衡量两个步态的距离就可根据(7)-(11)计算出来,这样计算出来的切距离克服了步态的平移旋转等不变性。
(6)分类
将每对样本间的切距离计算出来后,根据最近临分类器把测试样本归到相应的类中。
下面详细说明本发明的试验效果:
本发明的实验采用的数据库是中科院提供的CASIA Gait Database数据库,该数据库共包含20个人,每个人采集的数据有三种不同的采集角度,分别是相对于摄像机成0°,45°和90°三种角度,而每个角度又分为朝着摄像机走来和远离摄像机两种采集方式,这样每种方式采集两遍,从而得到两个步态序列,一个人则总共有12个步态序列。因为每个人相同状态的步态序列共有两个,所以实验中本发明采用其中的一个作为训练数据集,而另一个作为测试数据集。
本实验中,我们对两种不同类型的步态序列进行了识别。一种是特定角度的,一种是多角度步态序列。具体如下,我们将数据库分成两个数据集,第一部分数据集的步态序列取所有相对摄像头成90°的步态序列,共有20个人,每个人有4个序列,共80个序列,以下简称该数据集为D1;第二部分数据集取全部步态序列,共20个人,每个人12个序列,共240个序列,以下简称该数据集为D2。实验中,由于相同状态的步态序列只有两个,所以我们取其中的一个作为训练集,而另一个作为测试集。因为受小样本集的影响,实验一中我们只做一次实验就够了,实验二我们重复了20次,结果取20次的均值,具体见下文。
为便于评测我们提出的方法的性能,本文采用[2]中提出的基于轮廓分析的PCA方法,[3]提出的基于Procrusters方向统计学的方法,和[1 3]采用的基于步态能量图(GEI)的方法三种方法进行比较。最后,在实验中,我们也研究了各种方法对噪声的鲁棒性,我们发现我们的方法有一定鲁棒性,且其鲁棒性要比GEI+PCA的要好。以下是具体实验。
(a)实验一
本实验采用D2数据库,对以上介绍的4种方法,即基于外轮廓分析的PCA方法,基于Procrusters的方向统计学方法,基于GEI的方法,我们的方法-基于切距离的方法进行了比较,识别率分别为:51.67%,68.33%,96.67%,98.33%,实验数据说明了本发明的优越性。
(b)实验二
本实验比较基于外轮廓分析的PCA方法,基于Procrusters的方向统计学方法,GEI+PCA和我们的方法在D1,D2数据库上的效果,试图说明不同方法受数据集大小的影响程度,实验结果如表1所示。
表1.不同方法在两个数据集上的识别率
(c)实验三
本实验的设计用来说明不同方法对噪声的鲁棒性。在该实验中我们采用的是向图像里面增加均值为零的高斯噪声,我们设其方差从0.1到1逐渐增加,每次增加0.1,采用GEI+PCA和我们的方法两种算法。每种算法采样10次,我们在附图8给出了受噪声影响的步态能量图,表3和表4分别是在数据库D1和D2上的三种方法的结果,结果为5次采样的平均值和标准偏差(注:由于增加噪声后图像的连通性被彻底破坏了,而基于外轮廓分析的PCA方法和基于Procrusters的方向统计学方法要求图像的连通性不能改变,否则方法失效,故我们在本次实验中未采用这两种方法)。
表2.D1数据库下三种方法在不同噪声下的识别率
表3.D2数据库下三种方法在不同噪声下的识别率
从实验结果看,我们的方法不论在识别率上还是在对噪声的鲁棒性上都要优于GEI+PCA的方法。另外,高斯噪声是理想的噪声情况,常被用作测试算法稳定性,因此我们在实验中采用向步态序列里加进高斯噪声来验证我们的算法。附图9形象描述了不同方差的高斯噪声下三种方法识别率的曲线图。
附图说明
图1:基于切距离的步态识别流程图示。
图2中科院步态数据库的一些样本,(a)是一些抽取出来的帧,(b)是做了背景消除后的帧。
图3.目标抽取前后的帧,(a)背景消除后的帧,(b)目标抽取后的帧。
图4.一些步态帧及其对应的步态能量图(最后一张),其中(a),(b),(c)代表不同的步态序列。
图5.切距离,欧几里德距离和流形间距离的对照。
图6.经过连续化后的步态帧,(a)原始帧,(b)经过连续化后得到的帧。
图7.步态的一些变形效果,(a)为原图像,(b)为经X-平移得到的图像,(c)为经Y-平移得到的图像,(d)为经旋转得到的图像,(e)为经放缩得到的图像,(f)为经平行双曲变换得到的图像,(g)为经斜双曲变换得到的图像,(h)为经增厚变换得到的图像。
图8.原始步态能量图和被方差逐渐增大高斯噪声影响的步态能量图,(a),(b)代表两个人,第一张是没被噪声污染的图像。
图9.两种方法在不同噪声下的识别率,(a)两种方法在D1数据库的结果,(b)在数据库D2的结果。
具体实施方式
在这里我们先通过一个例子说明切距离的计算,然后总体上说明该方案用在实际应用中的过程。
1.目标抽取及建立步态能量图
我们先获取一系列的步态帧,并用(1)式对其进行目标抽取,接着用(2)式计算各步态帧的步态能量图,我们取两系列步态帧,分别为附图4的(a)和(c),(a)、(c)中最后一张为步态能量图。
2.图像连续化
记附图4中(a)、(c)中最后一张(即步态能量图)分别为A、B,我们用高斯核对其进行卷积得:
其中*代表卷积,gσ代表均值为零,方差为σ的二维高斯分布函数。
3.确定具体变形
在实验中,我们选取的具体变形有X-平移,Y-平移,旋转,放缩,平行双曲变形,斜双曲变形六种变形。下面以X-平移来说明由变形确定的切向量。X-平移的形式如下:
A1(x,y)→A1(x+α,y)
两边对α取导数得:
同理,对其他变形,其切向量为:
Y-平移:
旋转:
放缩:
平行双曲变形:
斜双曲变形:
由(14)-(19)的切向量便组成了该图像的切空间。
4.计算切距离
根据上面步骤,我们已获得了两步态能量图的切向量,根据该切向量和(7)-(11)式,我们可计算得A、B的切距离为1.5098e+007,而A、B间的欧氏距离为1.6531e+007。
到此为止完成了A、B切距离的计算,下面说明该方案用在实际应用中的过程。
整个方案主要包含训练和识别两个过程,为了详细说明该发明的具体实施方式,我们以监控系统的监控为例来加以说明。假设监控系统需要监控一些特殊人物,以防止其做出一些危害性行为,我们首先在重要路段装上摄像头,用以监控过往人物,把监控到的步态送往中心处理区用本发明的算法进行处理(当然事先要先得到欲监控的训练步态),若很大程度上认为被监控的人物是可疑人物,则进行追捕来进一步确认身份。
在训练过程中,我们先收集一些要监控的人物的步态序列,经本发明的处理流程处理成训练步态数据集。首先收集到一些步态序列,然后进行背景分离,目标抽取,进而计算步态能量图,再确定具体的变形,计算其切向量,从而得到训练步态数据库。
就识别过程而言,还是按照上述步骤得到监控人物的步态序列,步态能量图,进而得到切向量。最后,用这些切向量和训练集中的训练数据进行切距离的计算,再根据这些切距离来验证是否正确识别出来,若是,则发出警报抓获可疑人物。
总之,基于切距离的理论,本发明提出了一种新的基于切距离的步态识别方法,该方法对使步态识别中的小样本问题,平移不变等问题得到了一定程度的解决,从实验结果得到该算法优于目前的算法,显示了切距离在步态识别中的重要性。
Claims (3)
1、一种基于切向量的步态识别方法,其特征在于具体步骤如下:
(1)目标抽取
对于已经过背景分离的步态帧进行目标抽取,得到一系列待处理的步态目标,其做法为:先确定目标的中心,再从该中心点分别向上和向下搜索以确定目标人物最高和最低点,然后在得到的目标高度的前提下利用一定长宽比例确定与中心点的左右距离,得到相对中心点上下左右四个距离,这四个距离确定了一个矩形框,包围着要抽取的目标人物;
(2)建立步态能量图,将步态能量图作为不同步态序列的代表;
(3)图像连续化
得到步态能量图后,进行图像连续化处理;
(4)确定具体变形
经过连续化处理后,每帧图像都是一个连续函数f(x、y),然后采用下列变形平移、旋转、放缩、平行双曲变形和斜双曲变形中的一种或几种组合,来衡量步态的敏感因素;
(5)计算切距离
经过变形操作后,在这些变形组成的子空间上进行步态间切距离的计算;
(6)分类
将每对样本间的切距离计算出来后,根据最近临分类器把测试样本照到相应的类中。
2、根据权利要求1所述的基于切向量的步态识别方法,其特征在于所述步态间切距离的计算的步骤如下:设TP,TE是模式P,E的线性流形,则P,E间的切距离定义为两线性流形间的距离,即:
把TP,TE写成:
TP+(αP)=P+LPαP (8)
TE(αE)=E+LEαE (9)
其中
这是一个最小平方差问题,运用线性代数相关知识,得到:
其中
将(10)式、(11)式代入(8)式、(9)式进而再代入(7)式,即求得P,E间的切距离。
3、根据权利要求1所述的基于切向量的步态识别方法,其特征在于所述进行图像连续化处理的方法采用高斯函数法或双线性插值法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008100343218A CN101241551B (zh) | 2008-03-06 | 2008-03-06 | 基于切向量的步态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008100343218A CN101241551B (zh) | 2008-03-06 | 2008-03-06 | 基于切向量的步态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101241551A true CN101241551A (zh) | 2008-08-13 |
CN101241551B CN101241551B (zh) | 2011-02-09 |
Family
ID=39933069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008100343218A Expired - Fee Related CN101241551B (zh) | 2008-03-06 | 2008-03-06 | 基于切向量的步态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101241551B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426645A (zh) * | 2011-08-30 | 2012-04-25 | 北京航空航天大学 | 一种多视角多状态的步态识别方法 |
CN102610017A (zh) * | 2011-12-19 | 2012-07-25 | 上海电机学院 | 行人步行状态记录仪 |
CN103065125A (zh) * | 2012-12-31 | 2013-04-24 | 合肥寰景信息技术有限公司 | 一种基于瞬时步态能量图的远距离身份识别方法 |
CN105046216A (zh) * | 2015-07-08 | 2015-11-11 | 安徽瑞宏信息科技有限公司 | 一种步态轮廓提取方法 |
CN107403154A (zh) * | 2017-07-20 | 2017-11-28 | 四川大学 | 一种基于动态视觉传感器的步态识别方法 |
CN112989889A (zh) * | 2019-12-17 | 2021-06-18 | 中南大学 | 一种基于姿态指导的步态识别方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104299012B (zh) * | 2014-10-28 | 2017-06-30 | 银河水滴科技(北京)有限公司 | 一种基于深度学习的步态识别方法 |
-
2008
- 2008-03-06 CN CN2008100343218A patent/CN101241551B/zh not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426645A (zh) * | 2011-08-30 | 2012-04-25 | 北京航空航天大学 | 一种多视角多状态的步态识别方法 |
CN102426645B (zh) * | 2011-08-30 | 2013-04-17 | 北京航空航天大学 | 一种多视角多状态的步态识别方法 |
CN102610017A (zh) * | 2011-12-19 | 2012-07-25 | 上海电机学院 | 行人步行状态记录仪 |
CN103065125A (zh) * | 2012-12-31 | 2013-04-24 | 合肥寰景信息技术有限公司 | 一种基于瞬时步态能量图的远距离身份识别方法 |
CN105046216A (zh) * | 2015-07-08 | 2015-11-11 | 安徽瑞宏信息科技有限公司 | 一种步态轮廓提取方法 |
CN107403154A (zh) * | 2017-07-20 | 2017-11-28 | 四川大学 | 一种基于动态视觉传感器的步态识别方法 |
CN112989889A (zh) * | 2019-12-17 | 2021-06-18 | 中南大学 | 一种基于姿态指导的步态识别方法 |
CN112989889B (zh) * | 2019-12-17 | 2023-09-12 | 中南大学 | 一种基于姿态指导的步态识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101241551B (zh) | 2011-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101241551B (zh) | 基于切向量的步态识别方法 | |
Slama et al. | Accurate 3D action recognition using learning on the Grassmann manifold | |
Ouyang et al. | DeepID-Net: Object detection with deformable part based convolutional neural networks | |
Passalis et al. | Using facial symmetry to handle pose variations in real-world 3D face recognition | |
Ali et al. | Human action recognition in videos using kinematic features and multiple instance learning | |
Mori | Guiding model search using segmentation | |
Xie et al. | TEXEMS: Texture exemplars for defect detection on random textured surfaces | |
JP5545361B2 (ja) | 画像分類方法、装置、プログラム製品および記憶媒体 | |
Wu et al. | A field model for human detection and tracking | |
Liu et al. | Robust 3D action recognition through sampling local appearances and global distributions | |
CN103400136B (zh) | 基于弹性匹配的目标识别方法 | |
CN102332084A (zh) | 基于掌纹和人脸特征提取的身份识别方法 | |
Xu et al. | Local polynomial contrast binary patterns for face recognition | |
Lei et al. | Gender classification using automatically detected and aligned 3D ear range data | |
Chowdhary | Linear feature extraction techniques for object recognition: study of PCA and ICA | |
Li et al. | Scale-invariant wave kernel signature for non-rigid 3d shape retrieval | |
Chetverikov et al. | Texture Anisotropy, Symmetry, Regularity: Recovering Structure and Orientation from Interaction Maps. | |
Kapsouras et al. | Action recognition by fusing depth video and skeletal data information | |
CN109902690A (zh) | 图像识别技术 | |
CN109919056B (zh) | 一种基于判别式主成分分析的人脸识别方法 | |
Xing et al. | Dynamic hand gesture recognition using motion pattern and shape descriptors | |
Aouada et al. | Squigraphs for fine and compact modeling of 3-D shapes | |
Zhao et al. | 3D object recognition and pose estimation using kernel PCA | |
Wu et al. | A two-level pose estimation framework using majority voting of gabor wavelets and bunch graph analysis | |
Lan et al. | An affine invariant discriminate analysis with canonical correlation analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110209 Termination date: 20150306 |
|
EXPY | Termination of patent right or utility model |