CN106096532A - 一种基于张量联立判别分析的跨视角步态识别方法 - Google Patents

一种基于张量联立判别分析的跨视角步态识别方法 Download PDF

Info

Publication number
CN106096532A
CN106096532A CN201610397900.3A CN201610397900A CN106096532A CN 106096532 A CN106096532 A CN 106096532A CN 201610397900 A CN201610397900 A CN 201610397900A CN 106096532 A CN106096532 A CN 106096532A
Authority
CN
China
Prior art keywords
tensor
gait
sample
gabor
under
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610397900.3A
Other languages
English (en)
Other versions
CN106096532B (zh
Inventor
贲晛烨
张鹏
贾希彤
庞建华
朱雪娜
马璇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201610397900.3A priority Critical patent/CN106096532B/zh
Publication of CN106096532A publication Critical patent/CN106096532A/zh
Application granted granted Critical
Publication of CN106096532B publication Critical patent/CN106096532B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Abstract

本发明提供一种基于张量联立判别分析的跨视角步态识别方法,包括构建基于Gabor表示的步态特征、在线模型训练和离线测试。本发明所述方法不仅采用了耦合度量学习的思想削弱了跨视角下数据的异构问题,而且结合了基于Gabor表示的张量步态特征和张量判别分析的思想,提高了步态的分类性能并避免了由于样本过少带来的小样本问题。

Description

一种基于张量联立判别分析的跨视角步态识别方法
技术领域
本发明涉及一种基于张量联立判别分析的跨视角步态识别方法,属于模式识别和机器学习领域。
技术背景
步态是远距离下最具潜力的生物特征之一,具有非接触性采集、不易模仿伪装、受环境影响小和占内存小等优点,在公共安全、医学诊断以及案件侦查等领域具有广泛的应用前景和经济价值。
在可控条件下,当前的研究成果已经取得良好的识别效果。而步态识别面临许多困难,如时间变化、服饰变化、行走路面、鞋帽、背包等携带物和视角等变化因素,尤其是行人步态视角变化会导致可观测的人体步态图像与注册样本之间特征产生差异,导致步态识别正确率大大降低。
为了解决跨视角步态识别问题,研究者提出大量跨视角步态识别方法,根据这些方法的特点可以归为四类:一类是寻找不敏感性特征,Kale等人通过矢状面内透视投影用特定视角的步态图像合成任意视角下的步态,这种方法在矢状面和图像面视角差异较大时,自遮挡严重,导致识别性能大幅度下降;第二类是使用复杂的多相机协作系统采集三维步态信息重构任意视角下的步态样本。2001年,Shakhnarovich等人提出步态视角标准化方法,在步态识别方面通过多相机同步更新行人运动信息,通过步态运动的三维结构信息定义典型视角进行步态识别,这种方法很大程度上依赖于多相机在可控条件下协同操作,并且成本高、操作复杂;第三类是使用视角变换模型学习不同视角下步态样本之间的映射关系,将待测视角下样本转换到注册样本视角,进而进行特征提取和样本识别。Makihara等人通过傅里叶变换获取步态序列每个视角下的频域特征,然后在频域构建两种视角下步态特征间的变换关系。Kusakunniran等人使用线性判别分析提取步态能量图判别特征,然后通过奇异值分解构建不同视角下能量图判别特征之间的映射关系,进而进行步态认证和识别,但是这种方法的性能受到线性判别分析对样本的处理效果的影响。2012年,Muramatsu等人将视角变换模型和三维步态模型相结合,使用三维步态特征信息建立不同视角下步态样本间的变换关系;最后一类方法通过耦合度量学习模型,将不同视角下的步态样本映射到一个共同的子空间,在这个子空间内进行不同视角间样本相似性比较。Ben等人提出基于耦合距离度量学习方法,通过广义特征值分解将不同视角下的步态特征联系起来,在跨视角步态识别研究中取得了良好的效果。2015年,Makihara等提出张量空间的多判别分析方法,将源步态特征和目标步态特征映射到一个共同子空间,避免“维数灾难”问题。受到耦合度量学习模型优点的启发,本发明提供了一种基于张量联立判别分析的跨视角步态识别方法,在张量空间内将不同视角下的步态Gabor张量特征映射到一个共同的子空间,削弱不同视角间步态样本特征之间的数据差异,并保持样本特征的结构信息,是一种识别效果好、鲁棒性强的张量空间内跨视角步态识别方法。
目前,大多数步态识别研究在可控条件进行,这往往要求待测步态样本与注册步态样本是在相同视角下由同一摄像机捕获的。而在日常生活中,监控系统中捕获的步态样本与注册的步态样本往往存在视角差异,这大大的削弱了经典步态识别算法的有效性。
发明内容
针对现有技术的不足,本发明提供一种基于张量联立判别分析的跨视角步态识别方法。本发明所述方法不仅采用了耦合度量学习的思想削弱了跨视角下数据的异构问题,而且结合了基于Gabor表示的张量步态特征和张量判别分析的思想,提高了步态的分类性能并避免了由于样本过少带来的小样本问题。
本发明的技术方案如下:
一种基于张量联立判别分析的跨视角步态识别方法,包括构建基于Gabor表示的步态特征、在线模型训练和离线测试;
所述构建基于Gabor表示的步态特征的方法包括:
首先,构造二维Gabor滤波器;
其次,对步态能量图特征进行Gabor变换;
最后,分别按照二维Gabor滤波器方向、尺度以及这两个方面进行求和,生成GaborD、GaborS和GaborSD步态特征;
所述在线模型训练的方法包括:
首先,将两种视角下的步态特征写成张量的形式;
然后,通过张量联立判别分析最大化两种视角下步态特征的类间散度,并最小化两类视角的类内散度,通过迭代优化寻找两种视角下张量样本每个模式下的最优映射矩阵;
所述离线测试的方法包括:
首先,将注册视角下样本集和待测视角下样本的基于Gabor表示的步态特征写成张量的形式;
其次,通过在线模型训练方法得到的最优映射矩阵分别对他们进行线性变换;
最后,在映射后子空间中进行两种视角下样本的距离相似性度量,通过最小欧氏距离进行分类。
根据本发明优选的,在所述构建基于Gabor表示的步态特征的方法中,所述基于Gabor表示的步态特征包括GaborS、GaborD和GaborSD,使用步态能量图生成上述三种步态特征,并分别写成张量的形式,以下将上述张量形式的基于Gabor表示的步态特征统称为基于Gabor表示的步态张量特征;
首先,对于步态能量图特征进行Gabor变换,并按照方向和尺度方向分别进行求和,分别得到GaborD、GaborS和GaborSD特征,其数学描述如下:
二维Gabor函数定义为一个椭圆高斯包络和一个复杂平面波的乘积,即
ψ ( k s , d , z ) = | | k s , d | | σ 2 exp ( - | | k s , d | | 2 | | z | | 2 2 σ 2 ) [ exp ( ik s , d z ) - exp ( - σ 2 2 ) ] - - - ( 1 )
公式(1)中,z=(x,y)表示空间域变量,是频率向量,决定了Gabor函数的尺度和方向,其中,ks决定了采样的尺度,ks=kmax/fs,kmax=π/2,φd决定了采样的方向,φd=πd/8;
对于任意一张步态能量图I,其滤波后的Gabor特征为
Gabor(z)=I(z)*ψ(ks,d,z) (2)
为了适应张量运算,引入三种步态能量图Gabor特征的表示形式:GaborD特征定义为按照Gabor函数方向求和构成的幅度特征形式,如公式(3)所示;GaborS特征定义为按照Gabor函数尺度求和构成的幅度特征形式,如公式(4)所示;GaborSD特征定义为按照Gabor函数方向和尺度两个方面求和构成的幅度特征形式,如公式(5)所示:
G a b o r D ( z ) = | Σ d I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ d ψ ( k s , d , z ) | - - - ( 3 )
G a b o r S ( z ) = | Σ s I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ s ψ ( k s , d , z ) | - - - ( 4 )
G a b o r S D ( z ) = | Σ s , d I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ s , d ψ ( k s , d , z ) | - - - ( 5 )
其中,I(z)是步态能量图,z=(x,y)为步态能量图的空间坐标,ψ(ks,d,z)为公式(1)定义的Gabor函数。
根据本发明优选的,在所述在线模型训练方法中,所述Gabor表示的步态张量特征为基于Gabor表示的步态特征GaborD、GaborS和GaborSD的张量形式,以下用花体符号表示;所述模型训练为寻找不同视角下样本基于Gabor表示的步态张量特征在共同子空间内类间距离最大,类内距离最小的映射形式,其数学描述如下:
假设视角θ下第c类第i个样本基于Gabor表示的步态张量特征为视角下第c类第j个样本基于Gabor表示的步态张量特征为那么两种视角下的所有样本基于Gabor表示的步态张量特征构成的训练样本集分别为其中,N为样本特征的模式数,Hn,n=1,2,…,N为模式-n下样本特征的维数,分别为视角θ和下第c类样本的数量,C为类别数;两种视角下样本的总数分别为样本的总数为
根据本发明优选的,根据张量空间内耦合度量学习模型定义,基于张量的联立判别分析通过学习一组线性映射矩阵对分别将不同视角下的张量样本从高维空间映射到一个共同的判别子空间其中,Fn≤max(Hn,Ln),n=1,...,N,
公式(6)、(7)中,将式(6)和式(7)中张量运算分别按照n-模式展开得
A i ( n ) ( c ) = U n T X i ( n ) ( c ) ( U N ⊗ ... ⊗ U n + 1 ⊗ U n - 1 ⊗ ... ⊗ U 1 ) = U n T X i ( n ) ( c ) U ~ n - - - ( 8 )
B j ( n ) ( c ) = V n T Y j ( n ) ( c ) ( V N ⊗ ... ⊗ V n + 1 ⊗ V n - 1 ⊗ ... ⊗ V 1 ) = V n T Y j ( n ) ( c ) V ~ n - - - ( 9 )
公式(8)、(9)中, 为了后续讨论方便,定义视角θ下第c类样本的n-模式展开矩阵均值为总体均值为视角下第c类样本的n-模式展开矩阵均值为总体均值为那么
根据公式(8)和公式(9),两种视角下第c类样本按照n-模式展开矩阵映射后的均值和两种视角下全部样本按照n-模式展开矩阵映射后的总体均值分别为
公式(11)中,不同视角下样本贡献度系数αcc,α,β由不同视角下样本数量与样本的总数量之间的关系确定,即
根据Fisher判别思想,基于张量的联立判别分析使任意模式下的类间散度Jb(Un,Vn)最大,类内散度Jw(Un,Vn)最小;因此,基于张量的联立判别分析的目标函数定义为
{ U n * , V n * , n = 1 , ... , N } = arg max U n , V n , n = 1 , ... , N J b ( U n , V n ) J w ( U n , V n ) - - - ( 13 )
由于公式(13)中N阶张量的优化目标不存在紧形式解,这里将此优化问题转化为迭代求解N个模式下向量子空间内的N个线性映射问题,使每个模式下投影后向量子空间内类间散度最大,类内散度最小;对于n-模式,公式(13)中目标函数转化为
{ U n * , V n * } = arg max U n , V n J b ( U n , V n ) J w ( U n , V n ) - - - ( 14 )
类似于广义张量判别分析,类间散度和类内散度分别定义为
为了求解式(14)的最优解,n-模式下的类间散度简化为
其中,
同理,n-模式下的类内散度简化为
公式(18)中,
将公式(16)和公式(18)代入公式(14),目标函数简化为
arg max P n J ( P n ) = T r ( P n T S ( n ) P n ) T r ( P n T C ( n ) P n ) - - - ( 20 )
根据谱回归分析理论,公式(20)转化为求解如下广义特征值问题
S(n)p=λC(n)p (21)
n-模式下最优解的前Fn个最大广义特征值对应的特征向量构成,即
P n * = U n V n = [ p 1 ( n ) , p 2 ( n ) , ... , p F n ( n ) ] - - - ( 22 )
为了确定n-模式下保留的维数Fn,这里定义保留能量ξ为截断广义特征值与全部广义特征值的百分比,即
Σ i = 1 F n λ i ( n ) Σ i = 1 H n + L n λ i ( n ) ≥ ξ - - - ( 23 )
其中,λi (n),i=1,...,Hn+Ln是n-模式下矩阵的全部广义特征值;对于具有N个模式的张量样本,本文采用迭代优化的思想,即固定n-模式以外的投影矩阵U1,...,Un-1,Un+1,...,UN和V1,...,Vn-1,Vn+1,...,VN,优化n-模式下的投影矩阵Un和Vn
根据本发明优选的,所述离线测试的方法具体包括:通过基于欧氏距离的最近邻分类器对待测视角下步态样本进行分类,令视角θ下的注册样本集为视角下的待测样本为待测样本投影后张量特征和注册样本投影后形成新的训练特征集的欧氏距离为Dis,其中N为样本基于Gabor表示张量特征的模式数,Hn,n=1,2,…,N为模式-n下样本基于Gabor表示张量特征的维数,为视角θ下第c类样本的数量,C为类别数视角,那么样本归类于
公式(24)中,分别是映射后张量步态特征,||·||F表示F范数。
本发明的有益效果是:
1.本发明提出了一种基于张量联立判别分析的跨视角步态识别方法,削弱了不同视角下异构步态数据的数据差异,提高了异构步态识别的准确率;
2.本发明提出了一种基于张量联立判别分析的跨视角步态识别方法,将基于Gabor表示的张量步态特征与张量数据下Fisher判别分析结合起来,进一步提高了步态样本的分类性能;
3.本发明提出了一种基于张量联立判别分析的跨视角步态识别方法,通过张量映射保留了样本特征的结构信息,并避免了样本数量过少造成的“维数灾难”问题。
附图说明
图1本发明所述方法的流程图;
图2两段不同人的步态序列及其对应步态能量图(最右一列);
图3两个不同行人在十一种不同视角下的步态能量图;
图4本发明使用的5个尺度8个方向的Gabor滤波器实部;
图5构造基于Gabor表示的步态特征示例;
图6八种不同方法在给定待测样本视角时平均识别率比较。
具体实施方式:
下面结合附图和实例对本发明进行详细的描述,但不限于此。
如图1-6所示。
实施例1、
一种基于张量联立判别分析的跨视角步态识别方法,如图1所示,包括构建基于Gabor表示的步态特征、在线模型训练和离线测试;
所述构建基于Gabor表示的步态特征的方法包括:
首先,构造二维Gabor滤波器;
其次,对步态能量图特征进行Gabor变换;
最后,分别按照二维Gabor滤波器方向、尺度以及这两个方面进行求和,生成GaborD、GaborS和GaborSD步态特征;
所述在线模型训练的方法包括:
首先,将两种视角下的步态特征写成张量的形式;
然后,通过张量联立判别分析最大化两种视角下步态特征的类间散度,并最小化两类视角的类内散度,通过迭代优化寻找两种视角下张量样本每个模式下的最优映射矩阵。
所述离线测试的方法包括:
首先,将注册视角下样本集和待测视角下样本的基于Gabor表示的步态特征写成张量的形式;
其次,通过在线模型训练方法得到的最优映射矩阵分别对他们进行线性变换;
最后,在映射后子空间中进行两种视角下样本的距离相似性度量,通过最小欧氏距离进行分类。
实施例2、
如实施例1所述的一种基于张量联立判别分析的跨视角步态识别方法,其区别在于,在所述构建基于Gabor表示的步态特征的方法中,如图2和图3所示,所述基于Gabor表示的步态特征包括GaborS、GaborD和GaborSD,如图5,使用步态能量图生成上述三种步态特征,并分别写成张量的形式,以下将上述张量形式的基于Gabor表示的步态特征统称为基于Gabor表示的步态张量特征;
首先,对于步态能量图特征进行Gabor变换,并按照方向和尺度方向分别进行求和,分别得到GaborD、GaborS和GaborSD特征,其数学描述如下:
二维Gabor函数定义为一个椭圆高斯包络和一个复杂平面波的乘积,即
ψ ( k s , d , z ) = | | k s , d | | σ 2 exp ( - | | k s , d | | 2 | | z | | 2 2 σ 2 ) [ exp ( ik s , d z ) - exp ( - σ 2 2 ) ] - - - ( 1 )
公式(1)中,z=(x,y)表示空间域变量,是频率向量,决定了Gabor函数的尺度和方向,其中,ks决定了采样的尺度,ks=kmax/fs,kmax=π/2,φd决定了采样的方向,φd=πd/8;此实施例中,取σ=2π,s=0,1,2,3,4和d=0,1,2,3,4,5,6,7,本发明中使用的5个尺度8个方向的Gabor滤波函数实部如图4所示。
对于任意一张步态能量图I,其5个尺度8个方向上的滤波后的Gabor特征为
Gabor(z)=I(z)*ψ(ks,d,z) (2)
为了适应张量运算,引入三种步态能量图Gabor特征的表示形式:GaborD特征定义为按照Gabor函数方向求和构成的幅度特征形式,如公式(3)所示;GaborS特征定义为按照Gabor函数尺度求和构成的幅度特征形式,如公式(4)所示;GaborSD特征定义为按照Gabor函数方向和尺度两个方面求和构成的幅度特征形式,如公式(5)所示:
G a b o r D ( z ) = | Σ d I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ d ψ ( k s , d , z ) | - - - ( 3 )
G a b o r S ( z ) = | Σ s I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ s ψ ( k s , d , z ) | - - - ( 4 )
G a b o r S D ( z ) = | Σ s , d I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ s , d ψ ( k s , d , z ) | - - - ( 5 )
其中,I(z)是步态能量图,z=(x,y)为步态能量图的空间坐标,ψ(ks,d,z)为公式(1)定义的Gabor函数。对于本发明中使用的5个尺度8个方向的Gabor函数,任意一张大小为m×n的步态能量图经Gabor滤波后产生40幅滤波后特征图像,表示为空间内的四阶张量;按照方向求和得到的GaborD特征形式表示为空间内的三阶张量;按照尺度求和得到的GaborS特征形式表示为空间内的三阶张量;按照方向和尺度求和得到的GaborSD特征形式表示为空间内的二阶张量。
实施例3、
如实施例2所述的一种基于张量联立判别分析的跨视角步态识别方法,其区别在于,在所述在线模型训练方法中,所述Gabor表示的步态张量特征为基于Gabor表示的步态特征GaborD、GaborS和GaborSD的张量形式,以下用花体符号表示;所述模型训练为寻找不同视角下样本基于Gabor表示的步态张量特征在共同子空间内类间距离最大,类内距离最小的映射形式,其数学描述如下:
假设视角θ下第c类第i个样本基于Gabor表示的步态张量特征为视角下第c类第j个样本基于Gabor表示的步态张量特征为那么两种视角下的所有样本基于Gabor表示的步态张量特征构成的训练样本集分别为其中,N为样本特征的模式数,Hn,n=1,2,…,N为模式-n下样本特征的维数,分别为视角θ和下第c类样本的数量,C为类别数;两种视角下样本的总数分别为样本的总数为
实施例4、
如实施例3所述的一种基于张量联立判别分析的跨视角步态识别方法,其区别在于,根据张量空间内耦合度量学习模型定义,基于张量的联立判别分析通过学习一组线性映射矩阵对分别将不同视角下的张量样本从高维空间映射到一个共同的判别子空间其中,Fn≤max(Hn,Ln),n=1,...,N,
公式(6)、(7)中,将式(6)和式(7)中张量运算分别按照n-模式展开得
A i ( n ) ( c ) = U n T X i ( n ) ( c ) ( U N ⊗ ... ⊗ U n + 1 ⊗ U n - 1 ⊗ ... ⊗ U 1 ) = U n T X i ( n ) ( c ) U ~ n - - - ( 8 )
B j ( n ) ( c ) = V n T Y j ( n ) ( c ) ( V N ⊗ ... ⊗ V n + 1 ⊗ V n - 1 ⊗ ... ⊗ V 1 ) = V n T Y j ( n ) ( c ) V ~ n - - - ( 9 )
公式(8)、(9)中, 为了后续讨论方便,定义视角θ下第c类样本的n-模式展开矩阵均值为总体均值为视角下第c类样本的n-模式展开矩阵均值为总体均值为那么
根据公式(8)和公式(9),两种视角下第c类样本按照n-模式展开矩阵映射后的均值和两种视角下全部样本按照n-模式展开矩阵映射后的总体均值分别为
公式(11)中,不同视角下样本贡献度系数αcc,α,β由不同视角下样本数量与样本的总数量之间的关系确定,即
根据Fisher判别思想,基于张量的联立判别分析使任意模式下的类间散度Jb(Un,Vn)最大,类内散度Jw(Un,Vn)最小;因此,基于张量的联立判别分析的目标函数定义为
{ U n * , V n * , n = 1 , ... , N } = arg max U n , V n , n = 1 , ... , N J b ( U n , V n ) J w ( U n , V n ) - - - ( 13 )
由于公式(13)中N阶张量的优化目标不存在紧形式解,这里将此优化问题转化为迭代求解N个模式下向量子空间内的N个线性映射问题,使每个模式下投影后向量子空间内类间散度最大,类内散度最小;对于n-模式,公式(13)中目标函数转化为
{ U n * , V n * } = arg max U n , V n J b ( U n , V n ) J w ( U n , V n ) - - - ( 14 )
类似于广义张量判别分析,类间散度和类内散度分别定义为
为了求解式(14)的最优解,n-模式下的类间散度简化为
其中,
同理,n-模式下的类内散度简化为
公式(18)中,
将公式(16)和公式(18)代入公式(14),目标函数简化为
arg max P n J ( P n ) = T r ( P n T S ( n ) P n ) T r ( P n T C ( n ) P n ) - - - ( 20 )
根据谱回归分析理论,公式(20)转化为求解如下广义特征值问题
S(n)p=λC(n)p (21)
n-模式下最优解的前Fn个最大广义特征值对应的特征向量构成,即
P n * = U n V n = [ p 1 ( n ) , p 2 ( n ) , ... , p F n ( n ) ] - - - ( 22 )
为了确定n-模式下保留的维数Fn,这里定义保留能量ξ为截断广义特征值与全部广义特征值的百分比,即
Σ i = 1 F n λ i ( n ) Σ i = 1 H n + L n λ i ( n ) ≥ ξ - - - ( 23 )
其中,λi (n),i=1,...,Hn+Ln是n-模式下矩阵的全部广义特征值;对于具有N个模式的张量样本,本文采用迭代优化的思想,即固定n-模式以外的投影矩阵U1,...,Un-1,Un+1,...,UN和V1,...,Vn-1,Vn+1,...,VN,优化n-模式下的投影矩阵Un和Vn
实施例5、
如实施例1-4所述的一种基于张量联立判别分析的跨视角步态识别方法,其区别在于,所述离线测试的方法具体包括:通过基于欧氏距离的最近邻分类器对待测视角下步态样本进行分类,令视角θ下的注册样本集为视角下的待测样本为待测样本投影后张量特征和注册样本投影后形成新的训练特征集的欧氏距离为Dis,其中N为样本基于Gabor表示张量特征的模式数,Hn,n=1,2,…,N为模式-n下样本基于Gabor表示张量特征的维数,为视角θ下第c类样本的数量,C为类别数视角,那么样本归类于
公式(24)中,分别是映射后张量步态特征,||·||F表示F范数。
为了证明本发明提出方法的有效性,我们在中科院自动化所提供的CASIA(B)多视角步态库上进行实验验证,并采用步态能量图5个方向8个尺度上的GaborS、GaborD和GaborSD特征,其中每个样本的GaborS张量特征大小为64×64×8,GaborD张量特征大小为64×64×5,GaborSD张量特征大小为64×64。本发明将CASIA(B)多视角步态库分成独立的两部分,其中前64个人的4224段步态序列的基于Gabor表示的张量特征用于训练模型,后60个人的3960段步态序列的基于Gabor表示的张量特征用于测试基于张量联立判别分析模型的性能,并设置了与近几年经典的跨视角步态识别算法Baseline,FT-SVD,GEI-SVD,GEI-SVR,GEI-CMCC的对比实验。待测样本视角为54°,90°和126°时,不同注册样本视角下的识别率分别如表1、表2和表3所示,其中,GaborD-TSDA,GaborS-TSDA,GaborSD-TSDA分别表示本发明所提方法与三种基于Gabor表示的张量特征的结合。
由表1、2和表3可知,本发明提出的基于张量联立判别分析的跨视角步态识别方法(GaborD-TSDA、GaborS-TSDA和GaborSD-TSDA)在待测样本视角为54°、90°和126°时,11种视角下的注册样本的识别率都远高于经典的5种方法,尤其待测样本视角与注册样本视角差只有18°时,本发明提出的这些方法识别率都在98%以上,甚至达到100%。另外,实验结果也证明了步态视角差异对步态识别的影响以及本发明提出的基于张量联立判别分析方法对跨视角步态识别的鲁棒性。
表1待测样本视角为54°时不同方法识别率比较
表2待测样本视角为90°时不同方法识别率比较
表3待测样本视角为126°时不同方法识别率比较
图6给出了待测样本视角为54°、90°和126°时八种不同方法的平均识别率比较,其中,方法1-8分别表示Baseline、FT-SVD、GEI-SVD、GEI-SVR、GEI-CMCC、GaborD-TSDA、GaborS-TSDA和GaborSD-TSDA。由图6可知,本发明提出的三种方法平均识别率都在60%左右,远高于其它五种方法,比Baseline平均识别率要高出40个百分点,且相同方法待测视角为54°和126°时平均识别率高于待测样本视角为90°时的平均识别率。
综上所述,本发明提出的一种基于张量联立判别分析的跨视角步态识别方法比经典的跨视角步态识别方法具有更高的识别率,且对视角变化具有更强的有效性和鲁棒性。

Claims (5)

1.一种基于张量联立判别分析的跨视角步态识别方法,其特征在于,该方法包括构建基于Gabor表示的步态特征、在线模型训练和离线测试;
所述构建基于Gabor表示的步态特征的方法包括:
首先,构造二维Gabor滤波器;
其次,对步态能量图特征进行Gabor变换;
最后,分别按照二维Gabor滤波器方向、尺度以及这两个方面进行求和,生成GaborD、GaborS和GaborSD步态特征;
所述在线模型训练的方法包括:
首先,将两种视角下的步态特征写成张量的形式;
然后,通过张量联立判别分析最大化两种视角下步态特征的类间散度,并最小化两类视角的类内散度,通过迭代优化寻找两种视角下张量样本每个模式下的最优映射矩阵;
所述离线测试的方法包括:
首先,将注册视角下样本集和待测视角下样本的基于Gabor表示的步态特征写成张量的形式;
其次,通过在线模型训练方法得到的最优映射矩阵分别对他们进行线性变换;
最后,在映射后子空间中进行两种视角下样本的距离相似性度量,通过最小欧氏距离进行分类。
2.根据权利要求1所述的一种基于张量联立判别分析的跨视角步态识别方法,其特征在于,在所述构建基于Gabor表示的步态特征的方法中,所述基于Gabor表示的步态特征包括GaborS、GaborD和GaborSD,使用步态能量图生成上述三种步态特征,并分别写成张量的形式,以下将上述张量形式的基于Gabor表示的步态特征统称为基于Gabor表示的步态张量特征;
首先,对于步态能量图特征进行Gabor变换,并按照方向和尺度方向分别进行求和,分别得到GaborD、GaborS和GaborSD特征,其数学描述如下:
二维Gabor函数定义为一个椭圆高斯包络和一个复杂平面波的乘积,即
ψ ( k s , d , z ) = | | k s , d | | σ 2 exp ( - | | k s , d | | 2 | | z | | 2 2 σ 2 ) [ exp ( ik s , d z ) - exp ( - σ 2 2 ) ] - - - ( 1 )
公式(1)中,z=(x,y)表示空间域变量,是频率向量,决定了Gabor函数的尺度和方向,其中,ks决定了采样的尺度,ks=kmax/fs,kmax=π/2,φd决定了采样的方向,φd=πd/8;
对于任意一张步态能量图I,其滤波后的Gabor特征为
Gabor(z)=I(z)*ψ(ks,d,z) (2)
为了适应张量运算,引入三种步态能量图Gabor特征的表示形式:GaborD特征定义为按照Gabor函数方向求和构成的幅度特征形式,如公式(3)所示;GaborS特征定义为按照Gabor函数尺度求和构成的幅度特征形式,如公式(4)所示;GaborSD特征定义为按照Gabor函数方向和尺度两个方面求和构成的幅度特征形式,如公式(5)所示:
G a b o r D ( z ) = | Σ d I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ d ψ ( k s , d , z ) | - - - ( 3 )
G a b o r S ( z ) = | Σ s I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ s ψ ( k s , d , z ) | - - - ( 4 )
G a b o r S D ( z ) = | Σ s , d I ( z ) * ψ ( k s , d , z ) | = | I ( z ) * Σ s , d ψ ( k s , d , z ) | - - - ( 5 )
其中,I(z)是步态能量图,z=(x,y)为步态能量图的空间坐标,ψ(ks,d,z)为公式(1)定义的Gabor函数。
3.根据权利要求2所述的一种基于张量联立判别分析的跨视角步态识别方法,其特征在于,在所述在线模型训练方法中,所述Gabor表示的步态张量特征为基于Gabor表示的步态特征GaborD、GaborS和GaborSD的张量形式;所述模型训练为寻找不同视角下样本基于Gabor表示的步态张量特征在共同子空间内类间距离最大,类内距离最小的映射形式,其数学描述如下:
假设视角θ下第c类第i个样本基于Gabor表示的步态张量特征为视角下第c类第j个样本基于Gabor表示的步态张量特征为那么两种视角下的所有样本基于Gabor表示的步态张量特征构成的训练样本集分别为其中,N为样本特征的模式数,Hn,n=1,2,…,N为模式-n下样本特征的维数,分别为视角θ和下第c类样本的数量,C为类别数;两种视角下样本的总数分别为样本的总数为
4.根据权利要求3所述的一种基于张量联立判别分析的跨视角步态识别方法,其特征在于,根据张量空间内耦合度量学习模型定义,基于张量的联立判别分析通过学习一组线性映射矩阵对分别将不同视角下的张量样本从高维空间映射到一个共同的判别子空间其中,Fn≤max(Hn,Ln),n=1,...,N,
公式(6)、(7)中,将式(6)和式(7)中张量运算分别按照n-模式展开得
A i ( n ) ( c ) = U n T X i ( n ) ( c ) ( U N ⊗ ... ⊗ U n + 1 ⊗ U n - 1 ⊗ ... ⊗ U 1 ) = U n T X i ( n ) ( c ) U ~ n - - - ( 8 )
B j ( n ) ( c ) = V n T Y j ( n ) ( c ) ( V N ⊗ ... ⊗ V n + 1 ⊗ V n - 1 ⊗ ... ⊗ V 1 ) = V n T Y j ( n ) ( c ) V ~ n - - - ( 9 )
公式(8)、(9)中,
定义视角θ下第c类样本的n-模式展开矩阵均值为总体均值为视角下第c类样本的n-模式展开矩阵均值为总体均值为那么
根据公式(8)和公式(9),两种视角下第c类样本按照n-模式展开矩阵映射后的均值和两种视角下全部样本按照n-模式展开矩阵映射后的总体均值分别为
公式(11)中,不同视角下样本贡献度系数αcc,α,β由不同视角下样本数量与样本的总数量之间的关系确定,即
基于张量的联立判别分析使任意模式下的类间散度Jb(Un,Vn)最大,类内散度Jw(Un,Vn)最小;因此,基于张量的联立判别分析的目标函数定义为
{ U n * , V n * , n = 1 , ... , N } = argmax U n , V n , n = 1 , ... , N J b ( U n , V n ) J w ( U n , V n ) - - - ( 13 )
由于公式(13)中N阶张量的优化目标不存在紧形式解,使每个模式下投影后向量子空间内类间散度最大,类内散度最小;对于n-模式,公式(13)中目标函数转化为
{ U n * , V n * } = argmax U n , V n J b ( U n , V n ) J w ( U n , V n ) - - - ( 14 )
类似于广义张量判别分析,类间散度和类内散度分别定义为
为了求解式(14)的最优解,n-模式下的类间散度简化为
其中,
同理,n-模式下的类内散度简化为
公式(18)中,
将公式(16)和公式(18)代入公式(14),目标函数简化为
arg m a x P n J ( P n ) = T r ( P n T S ( n ) P n ) T r ( P n T C ( n ) P n ) - - - ( 20 )
公式(20)转化为求解如下广义特征值问题
S(n)p=λC(n)p (21)
n-模式下最优解的前Fn个最大广义特征值对应的特征向量构成,即
P n * = U n V n = [ p 1 ( n ) , p 2 ( n ) , ... , p F n ( n ) ] - - - ( 22 )
定义保留能量ξ为截断广义特征值与全部广义特征值的百分比,即
Σ i = 1 F n λ i ( n ) Σ i = 1 H n + L n λ i ( n ) ≥ ξ - - - ( 23 )
其中,i=1,...,Hn+Ln是n-模式下矩阵的全部广义特征值;对于具有N个模式的张量样本,固定n-模式以外的投影矩阵
U1,...,Un-1,Un+1,...,UN和V1,...,Vn-1,Vn+1,...,VN,优化n-模式下的投影矩阵Un和Vn
5.根据权利要求1-4任一所述的一种基于张量联立判别分析的跨视角步态识别方法,其特征在于,所述离线测试的方法具体包括:通过基于欧氏距离的最近邻分类器对待测视角下步态样本进行分类,令视角θ下的注册样本集为视角下的待测样本为待测样本投影后张量特征和注册样本投影后形成新的训练特征集的欧氏距离为Dis,其中N为样本基于Gabor表示张量特征的模式数,Hn,n=1,2,…,N为模式-n下样本基于Gabor表示张量特征的维数,为视角θ下第c类样本的数量,C为类别数视角,那么样本归类于
公式(24)中,分别是映射后张量步态特征,||·||F表示F范数。
CN201610397900.3A 2016-06-03 2016-06-03 一种基于张量联立判别分析的跨视角步态识别方法 Active CN106096532B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610397900.3A CN106096532B (zh) 2016-06-03 2016-06-03 一种基于张量联立判别分析的跨视角步态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610397900.3A CN106096532B (zh) 2016-06-03 2016-06-03 一种基于张量联立判别分析的跨视角步态识别方法

Publications (2)

Publication Number Publication Date
CN106096532A true CN106096532A (zh) 2016-11-09
CN106096532B CN106096532B (zh) 2019-08-09

Family

ID=57228063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610397900.3A Active CN106096532B (zh) 2016-06-03 2016-06-03 一种基于张量联立判别分析的跨视角步态识别方法

Country Status (1)

Country Link
CN (1) CN106096532B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934359A (zh) * 2017-03-06 2017-07-07 重庆邮电大学 基于高阶张量子空间学习的多视角步态识别方法及系统
CN107085716A (zh) * 2017-05-24 2017-08-22 复旦大学 基于多任务生成对抗网络的跨视角步态识别方法
CN108921114A (zh) * 2018-07-10 2018-11-30 福州大学 基于多非线性局部保持投影的两视角步态识别方法
CN109871892A (zh) * 2019-02-18 2019-06-11 华南理工大学 一种基于小样本度量学习的机器人视觉认知系统
CN109961089A (zh) * 2019-02-26 2019-07-02 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
CN110991326A (zh) * 2019-11-29 2020-04-10 齐鲁工业大学 基于Gabor滤波器和改进极限学习机的步态识别方法及系统
CN112069961A (zh) * 2020-08-28 2020-12-11 电子科技大学 一种基于度量学习的少样本文档版面分析方法
CN112906557A (zh) * 2021-02-08 2021-06-04 重庆兆光科技股份有限公司 一种多视角下的多粒度特征聚合目标重识别方法及系统
CN113032553A (zh) * 2019-12-09 2021-06-25 富士通株式会社 信息处理装置和信息处理方法
US11138417B2 (en) 2019-04-24 2021-10-05 King Fahd University Of Petroleum And Minerals Automatic gender recognition utilizing gait energy image (GEI) images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102368300A (zh) * 2011-09-07 2012-03-07 常州蓝城信息科技有限公司 基于复杂环境下目标人群的多种特征的提取方法
CN103218617A (zh) * 2013-05-13 2013-07-24 山东大学 一种多线性大间距的特征提取方法
CN103745205A (zh) * 2014-01-22 2014-04-23 山东大学 一种基于多线性均值成分分析的步态识别方法
CN104217211A (zh) * 2014-08-07 2014-12-17 哈尔滨工程大学 基于最优判别耦合投影的多视角步态识别方法
CN104463099A (zh) * 2014-11-05 2015-03-25 哈尔滨工程大学 一种基于图的半监督耦合度量的多角度步态识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102368300A (zh) * 2011-09-07 2012-03-07 常州蓝城信息科技有限公司 基于复杂环境下目标人群的多种特征的提取方法
CN103218617A (zh) * 2013-05-13 2013-07-24 山东大学 一种多线性大间距的特征提取方法
CN103745205A (zh) * 2014-01-22 2014-04-23 山东大学 一种基于多线性均值成分分析的步态识别方法
CN104217211A (zh) * 2014-08-07 2014-12-17 哈尔滨工程大学 基于最优判别耦合投影的多视角步态识别方法
CN104463099A (zh) * 2014-11-05 2015-03-25 哈尔滨工程大学 一种基于图的半监督耦合度量的多角度步态识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YASUSHI MAKIHARA等: "《Multi-view discriminant analysis with tensor representation and its application to cross-view gait recognition 》", 《2015 11TH IEEE INTERNATIONAL CONFERENCE AND WORKSHOPS ON AUTOMATIC FACE AND GESTURE RECOGNITION (FG)》 *
孙磊: "《基于张量判别分析的步态识别算法研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934359B (zh) * 2017-03-06 2020-09-22 重庆邮电大学 基于高阶张量子空间学习的多视角步态识别方法及系统
CN106934359A (zh) * 2017-03-06 2017-07-07 重庆邮电大学 基于高阶张量子空间学习的多视角步态识别方法及系统
CN107085716A (zh) * 2017-05-24 2017-08-22 复旦大学 基于多任务生成对抗网络的跨视角步态识别方法
CN107085716B (zh) * 2017-05-24 2021-06-04 复旦大学 基于多任务生成对抗网络的跨视角步态识别方法
CN108921114A (zh) * 2018-07-10 2018-11-30 福州大学 基于多非线性局部保持投影的两视角步态识别方法
CN108921114B (zh) * 2018-07-10 2021-09-28 福州大学 基于多非线性局部保持投影的两视角步态识别方法
CN109871892A (zh) * 2019-02-18 2019-06-11 华南理工大学 一种基于小样本度量学习的机器人视觉认知系统
CN109961089A (zh) * 2019-02-26 2019-07-02 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
CN109961089B (zh) * 2019-02-26 2023-04-07 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
US11138417B2 (en) 2019-04-24 2021-10-05 King Fahd University Of Petroleum And Minerals Automatic gender recognition utilizing gait energy image (GEI) images
CN110991326A (zh) * 2019-11-29 2020-04-10 齐鲁工业大学 基于Gabor滤波器和改进极限学习机的步态识别方法及系统
CN113032553A (zh) * 2019-12-09 2021-06-25 富士通株式会社 信息处理装置和信息处理方法
CN112069961A (zh) * 2020-08-28 2020-12-11 电子科技大学 一种基于度量学习的少样本文档版面分析方法
CN112069961B (zh) * 2020-08-28 2022-06-14 电子科技大学 一种基于度量学习的少样本文档版面分析方法
CN112906557A (zh) * 2021-02-08 2021-06-04 重庆兆光科技股份有限公司 一种多视角下的多粒度特征聚合目标重识别方法及系统

Also Published As

Publication number Publication date
CN106096532B (zh) 2019-08-09

Similar Documents

Publication Publication Date Title
CN106096532A (zh) 一种基于张量联立判别分析的跨视角步态识别方法
CN103268497B (zh) 一种人脸姿态检测方法与在人脸识别中的应用
Chaudhry et al. Bio-inspired dynamic 3d discriminative skeletal features for human action recognition
CN109902590A (zh) 深度多视图特征距离学习的行人重识别方法
Hu et al. Gait-based gender classification using mixed conditional random field
CN104392246B (zh) 一种基于类间类内面部变化字典的单样本人脸识别方法
Guo et al. Aligned to the object, not to the image: A unified pose-aligned representation for fine-grained recognition
CN106022391A (zh) 一种高光谱图像特征的并行提取与分类方法
CN103679158A (zh) 人脸认证方法和装置
Sun et al. Nonlinear dimensionality reduction via the ENH-LTSA method for hyperspectral image classification
CN106096528B (zh) 一种基于二维耦合边距Fisher分析的跨视角步态识别方法
Sang et al. Pose-invariant face recognition via RGB-D images
CN106991385A (zh) 一种基于特征融合的人脸表情识别方法
CN103425999A (zh) 基于非负张量投影算子分解算法的脑认知状态判定方法
CN109003291A (zh) 目标跟踪方法及装置
Kajla et al. Graph neural networks using local descriptions in attributed graphs: an application to symbol recognition and hand written character recognition
Wan et al. A novel face recognition method: Using random weight networks and quasi-singular value decomposition
Bodini et al. Single sample face recognition by sparse recovery of deep-learned lda features
CN104715266A (zh) 基于src-dp与lda相结合的图像特征提取方法
Fu et al. Personality trait detection based on ASM localization and deep learning
CN103632144A (zh) 一种基于模糊二维k近邻法的人脸识别方法
CN105930788A (zh) 非下采样轮廓波和主成分分析相结合的人脸识别方法
Yu et al. Tensor discriminant analysis with multiscale features for action modeling and categorization
Zhu et al. Head pose estimation with improved random regression forests
Vasilescu A Multilinear (Tensor) Algebraic Framework for Computer Graphics, Computer Vision and Machine Learning

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant