CN110222568B - 一种基于时空图的跨视角步态识别方法 - Google Patents

一种基于时空图的跨视角步态识别方法 Download PDF

Info

Publication number
CN110222568B
CN110222568B CN201910366189.9A CN201910366189A CN110222568B CN 110222568 B CN110222568 B CN 110222568B CN 201910366189 A CN201910366189 A CN 201910366189A CN 110222568 B CN110222568 B CN 110222568B
Authority
CN
China
Prior art keywords
gait
space
diagram
time
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910366189.9A
Other languages
English (en)
Other versions
CN110222568A (zh
Inventor
杨天奇
夏忠超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan University
Original Assignee
Jinan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan University filed Critical Jinan University
Priority to CN201910366189.9A priority Critical patent/CN110222568B/zh
Publication of CN110222568A publication Critical patent/CN110222568A/zh
Application granted granted Critical
Publication of CN110222568B publication Critical patent/CN110222568B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时空图的跨视角步态识别方法,S11,对待识别原始图片进行背景减除,并按等高同比例裁剪得到步态空间图;S12,对所述步态空间图的坐标索引进行转置,对转置后的步态空间图按第一维展开,得到步态时间图;S13,分别构建用于提取步态空间特征的空间卷积神经网络模块和用于提取步态动态时间特征的时间卷积神经网络模块;S14,将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量;本发明弥补了步态识别常用的GEI特征中对步态的动态不充分的缺点。

Description

一种基于时空图的跨视角步态识别方法
技术领域
本发明涉及身份识别技术领域,具体涉及一种基于时空图的跨视角步态识别方法。
背景技术
随着计算机视觉技术的发展,人们利用计算机来分析人的步态从而对人进行身份识别成为了可能,步态识别在近年来被学术界的学者们广泛研究,它是一种利用人在行走过程中的运动方式来对人进行身份识别的一种生物识别技术,与其他生物识别技术相比(如人脸,指纹等识别技术),步态识别技术具有识别远距离、非侵犯性、难以伪装、安全性高等特点,在安防、智能监控等领域有着非常广阔的应用前景,是一个非常值得研究的课题。
当前主流的跨视角的步态识别方法主要是使用统计学模型或者深度学习模型对步态能量图(Gait Energy Image,简称GEI)进行参数学习,将不同视角的步态能量图输入到模型中进行参数学习,从而得到一个与视角无关的特征提取器,然后利用提取到的特征进行特征匹配,实现对人物的身份识别。但是这种类型的方法在取得步态能量图的时候已经损失掉了很多动态的步态信息,且步态能量图本身较为模糊,包含的动态的步态信息不足,在卷积神经网络中也无法很好地提取到足够的步态信息,在大数据集下面无法达到理想化的精度。
发明内容
本发明的目的是为了克服以上现有技术存在的不足,提供了一种基于时空图的跨视角步态识别方法。
本发明的目的通过以下的技术方案实现:
一种基于时空图的跨视角步态识别方法,包括:
S11,对待识别原始图片进行背景减除,并按等高同比例裁剪得到步态空间图;
S12,对所述步态空间图的坐标索引进行转置,对转置后的步态空间图按第一维展开,得到步态时间图;
S13,分别构建用于提取步态空间特征(Gait Temporal Image,简称GTI)的空间卷积神经网络模块和用于提取步态动态时间特征(Gait Spatial Image,简称GSI)的时间卷积神经网络模块;
S14,将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量;N≥1,M≥1;
S15,将所述第一空间特征向量和第二空间特征向量进行加权融合;将融合后的特征向量和数据库中存储的步态特征向量进行一一匹配;
S16,若匹配成功,则根据数据库中存储的步态特征向量对应的身份信息得到待识别步态的身份信息,并输出识别结果。
优选地,步骤S11包括:对待识别原始图片利用二值化进行背景减除,并按等高同比例裁剪,得到数量不固定、高宽固定的步态空间图。
优选地,步骤S12还包括:对所述步态空间图的数量进行限制;对所述步态空间图的数量进行限制包括:预先设置时间轴长度为定值L,所述步态空间图为K张,若K≥L≥1,则选取最开始的L张步态空间图;若K<L,采用随机插帧方法将步态空间图补齐到L张。
优选地,步骤S13包括:使用所述步态空间图对空间卷积神经网络模块进行训练,直到模型收敛;使用所述步态时间图对时间卷积神经网络模块进行训练,直到模型收敛。
优选地,所述将所述第一空间特征向量和第二空间特征向量进行加权融合包括:分别对N个第一空间特征向量、M个第二空间特征向量取平均,将取平均后的第一空间特征向量和第二空间特征向量进行加权融合。
优选地,若所述待识别原始图片来自步态数据库OU-ISIR MVLP,步骤S11包括:将步态数据库OU-ISIR MVLP中的步态序列数据进行预处理,获取包含人物的黑白图片,根据像素质心公式计算所述黑白图片的质心位置,以像素质心点为中心,将所述黑白图片中像素点的最高点及最低点作为截取的范围,宽度按同比例,对所述黑白图片中人物部分进行截取,得到步态空间图,其中,步态数据库OU-ISIR MVLP包含10,307个人物的步态序列,其中5153个ID所对应的步态序列用于训练过程,其余ID所对应的步态序列用于测试过程。
优选地,所述像素质心公式为:
其中,P(x=i,y=j)指的是像素点i,j上面的值,i,j为图片的索引下标。
优选地,对所述步态空间图按时间轴进行转置,则有GSI(t,y,x)=GTI(y,t,x),将时间轴长度设置为L=64,若所述步态空间图的张数为超过64选取最开始的64张图;若所述步态空间图的张数不足64张图,则采用随机插帧方法将步态空间图补齐到L张;同时使用图像缩放方法将尺寸不固定的步态空间图重新缩放固定,得到步态时间图。
优选地,所述空间卷积神经网络模块和时间卷积神经网络模块的网络配置均为:第一层的卷积神经网络是带有两层的16个7X7大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第二层的卷积神经网络是带有两层的64个5X5大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第三层的卷积神经网络是带有两层的128个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第四层的卷积神经网络是带有两层的256个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第五层是4096个神经元的全连接层,带有relu激活函数;第六层是4096个神经元的全连接层,带有relu激活函数。第七层输出特征向量的长度设置为训练数据的ID的数量,即5153,通过softmax函数后得到一个步态图属于某个ID的概率。
优选地,对N个第一空间特征向量取平均得到一个长度为5153的时间特征向量,对M个第二空间特征向量取平均得到一个长度为5153的空间特征向量,将取平均后的第一空间特征向量和第二空间特征向量进行加权系数均为1/2的加权融合,得到最终表示一个步态序列的特征向量,公式如下:
其中,GSI(t,x,y)表示步态空间图对应时刻为t,对应坐标为(x,y)的像素点的值,GTI(x,t,y)表示的步态时间图对应高度为x,对应坐标为(t,y)的像素点的值,F1为空间卷积神经网络模块中的转换单元的输出,F2为时间卷积神经网络模块中的转换单元的输出。
将融合后的特征向量和数据库中存储的步态特征向量利用最近邻分类器一一进行匹配;设置最近邻数为1,设置距离函数为欧式距离函数,将数据库中匹配度大于H的特征向量对应的ID,作为到步态的身份识别结果,H>0。
本发明相对于现有技术具有如下的优点:
本发明根据步态识别方法的特点,提出的使用两个独立的卷积神经网络分别对步态的空间特征及时间特征进行学习,形成双流的卷积神经网络,然后对空间、时间的步态特征进行融合,这种融合后的步态特征比传统的GEI特征来说更加具有鲁棒性;本发明利用步态识别方法中普遍使用到的等高剪影图的特点,提出了一种新的步态的时间特征(GaitTemporal Image),弥补了步态识别常用的GEI特征中对步态的动态不充分的缺点,在一定程度上也为深度学习提供了更多的数据,使得模型的精度更高;本发明利用深度学习中的卷积神经网络技术,通过多视角的训练及参数的相对应优化,能够自动提取非常抽象的与视角无关的步态深度特征,进而实现较高的准确率;本发明方法可以广泛应用于步态识别系统、动作识别、行为识别等领域,在安防、智能监控等领域具有广泛的适用性。
附图说明
图1是本发明的基于时空图的跨视角步态识别方法的流程示意图。
图2是本发明的步态空间图。
图3是本发明的步态时间图。
图4是本发明的卷积神经网络模块的特征提取的示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
参见图1、一种基于时空图的跨视角步态识别方法,包括:
S11,对待识别原始图片进行背景减除,并按等高同比例裁剪得到步态空间图;步骤S11包括:对待识别原始图片利用二值化进行背景减除,并按等高同比例裁剪,得到数量不固定、高宽固定的步态空间图。其中待识别原始图片是待识别的步态的一种形式。
S12,对所述步态空间图的坐标索引进行转置,对转置后的步态空间图按第一维展开,得到步态时间图;步骤S12还包括:对所述步态空间图的数量进行限制;对所述步态空间图的数量进行限制包括:预先设置时间轴长度为定值L,所述步态空间图为K张,若K≥L≥1,则选取最开始的L张步态空间图;若K<L,采用随机插帧方法将步态空间图补齐到L张。
S13,分别构建用于提取步态空间特征的空间卷积神经网络模块和用于提取步态动态时间特征的时间卷积神经网络模块;步骤S13包括:使用所述步态空间图对空间卷积神经网络模块进行训练,直到模型收敛;使用所述步态时间图对时间卷积神经网络模块进行训练,直到模型收敛。
S14,将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量;N≥1,M≥1;
S15,将所述第一空间特征向量和第二空间特征向量进行加权融合;将融合后的特征向量和数据库中存储的步态特征向量进行一一匹配;所述将所述第一空间特征向量和第二空间特征向量进行加权融合包括:分别对N个第一空间特征向量、M个第二空间特征向量取平均,将取平均后的第一空间特征向量和第二空间特征向量进行加权融合。
S16,若匹配成功,则根据数据库中存储的步态特征向量对应的身份信息得到待识别步态的身份信息,并输出识别结果。
本发明的基于时空图的跨视角步态识别方法的具体应用实施例如下:
(1)所述待识别原始图片来自日本大阪大学(Osaka University)所提供的步态数据库OU-ISIR MVLP,将步态数据库OU-ISIR MVLP中每个ID的14个视角的步态序列数据进行预处理,获取包含人物的黑白图片,根据像素质心公式计算所述黑白图片的质心位置,以像素质心点为中心,将所述黑白图片中像素点的最高点及最低点作为截取的范围,宽度按同比例,对所述黑白图片中人物部分进行截取,缩放到固定的尺寸128x88,得到统一尺寸的步态空间图(Gait Spatial Image,GSI),并保存为图片,最终结果如图2所示,其中,步态数据库OU-ISIR MVLP包含10,307个人物的步态序列,其中5153个ID所对应的步态序列用于训练过程,其余ID所对应的步态序列用于测试过程。
所述像素质心公式为:
其中,P(x=i,y=j)指的是像素点i,j上面的值,i,j为图片的索引下标。
(2)对所述步态空间图(GSI)按时间轴进行转置,则有GSI(t,y,x)=GTI(y,t,x),将时间轴长度设置为L=64,若所述步态空间图的张数为超过64选取最开始的64张图;若所述步态空间图的张数不足64张图,则采用随机插帧方法将步态空间图补齐到L张;使用随机插帧方法得到的步态时间图称为Clipped Gait Temporal Image,简称CGTI。同时使用图像缩放方法(双线性插值)将尺寸不固定的步态空间图重新缩放固定,得到步态时间图,将使用图像缩放法得到的步态时间图称为Resized Gait Temporal Image,简称RGTI,并保存为图片,如图3所示。
(3)分别构建用于提取步态空间特征的空间卷积神经网络模块和用于提取步态动态时间特征的时间卷积神经网络模块,所述空间卷积神经网络模块和时间卷积神经网络模块的网络配置均为:第一层的卷积神经网络是带有两层的16个7X7大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第二层的卷积神经网络是带有两层的64个5X5大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第三层的卷积神经网络是带有两层的128个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第四层的卷积神经网络是带有两层的256个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第五层是4096个神经元的全连接层,带有relu激活函数;第六层是4096个神经元的全连接层,带有relu激活函数。第七层输出特征向量的长度设置为训练数据的ID的数量,即5153,通过softmax函数后得到一个步态图属于某个ID的概率。
(4)将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量,对N个第一空间特征向量取平均得到一个长度为5153的时间特征向量,对M个第二空间特征向量取平均得到一个长度为5153的空间特征向量,将取平均后的第一空间特征向量和第二空间特征向量进行加权系数均为1/2的加权融合,得到最终表示一个步态序列的特征向量,转换过程示意图如图4。
公式如下:
其中,GSI(t,x,y)表示步态空间图对应时刻为t,对应坐标为(x,y)的像素点的值,GTI(x,t,y)表示的步态时间图对应高度为x,对应坐标为(t,y)的像素点的值,F1为空间卷积神经网络模块中的转换单元的输出,F2为时间卷积神经网络模块中的转换单元的输出。
(5)将融合后的特征向量和数据库中存储的步态特征向量利用最近邻分类器一一进行匹配;设置最近邻数为1,设置距离函数为欧式距离函数,将数据库中匹配度大于H的特征向量对应的ID,作为到步态的身份识别结果,H>0,即在数据库中查找,得到特征向量最接近的一个向量所对应的ID,作为到步态的身份识别结果。
上述具体实施方式为本发明的优选实施例,并不能对本发明进行限定,其他的任何未背离本发明的技术方案而所做的改变或其它等效的置换方式,都包含在本发明的保护范围之内。

Claims (9)

1.一种基于时空图的跨视角步态识别方法,其特征在于,包括:
S11,对待识别原始图片进行背景减除,并按等高同比例裁剪得到步态空间图;
S12,对所述步态空间图的坐标索引进行转置,对转置后的步态空间图按第一维展开,得到步态时间图;对所述步态空间图的数量进行限制;对所述步态空间图的数量进行限制包括:预先设置时间轴长度为定值L,所述步态空间图为K张,若K≥L≥1,则选取最开始的L张步态空间图;若K<L,采用随机插帧方法将步态空间图补齐到L张;
S13,分别构建用于提取步态空间特征的空间卷积神经网络模块和用于提取步态动态时间特征的时间卷积神经网络模块;
S14,将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量;N≥1,M≥1;
S15,将所述第一空间特征向量和第二空间特征向量进行加权融合;将融合后的特征向量和数据库中存储的步态特征向量进行一一匹配;
S16,若匹配成功,则根据数据库中存储的步态特征向量对应的身份信息得到待识别步态的身份信息,并输出识别结果。
2.根据权利要求1所述的基于时空图的跨视角步态识别方法,其特征在于,步骤S11包括:对待识别原始图片利用二值化进行背景减除,并按等高同比例裁剪,得到数量不固定、高宽固定的步态空间图。
3.根据权利要求1所述的基于时空图的跨视角步态识别方法,其特征在于,步骤S13包括:使用所述步态空间图对空间卷积神经网络模块进行训练,直到模型收敛;使用所述步态时间图对时间卷积神经网络模块进行训练,直到模型收敛。
4.根据权利要求1所述的基于时空图的跨视角步态识别方法,其特征在于,所述将所述第一空间特征向量和第二空间特征向量进行加权融合包括:分别对N个第一空间特征向量、M个第二空间特征向量取平均,将取平均后的第一空间特征向量和第二空间特征向量进行加权融合。
5.根据权利要求2所述的基于时空图的跨视角步态识别方法,其特征在于,若所述待识别原始图片来自步态数据库OU-ISIR MVLP,步骤S11包括:
将步态数据库OU-ISIR MVLP中的步态序列数据进行预处理,获取包含人物的黑白图片,根据像素质心公式计算所述黑白图片的质心位置,以像素质心点为中心,将所述黑白图片中像素点的最高点及最低点作为截取的范围,宽度按同比例,对所述黑白图片中人物部分进行截取,得到步态空间图,其中,步态数据库OU-ISIR MVLP包含10,307个人物的步态序列,其中5153个ID所对应的步态序列用于训练过程,其余ID所对应的步态序列用于测试过程。
6.根据权利要求5所述的基于时空图的跨视角步态识别方法,其特征在于,所述像素质心公式为:
其中,P(x=i,y=j)指的是像素点i,j上面的值,i,j为图片的索引下标。
7.根据权利要求6所述的基于时空图的跨视角步态识别方法,其特征在于,包括:对所述步态空间图按时间轴进行转置,则有GSI(t,y,x)=GTI(y,t,x),GSI(t,x,y)表示步态空间图对应时刻为t,对应坐标为(x,y)的像素点的值,GTI(x,t,y)表示的步态时间图对应高度为x,对应坐标为(t,y)的像素点的值;将时间轴长度设置为L=64,若所述步态空间图的张数为超过64选取最开始的64张图;若所述步态空间图的张数不足64张图,则采用随机插帧方法将步态空间图补齐到L张;同时使用图像缩放方法将尺寸不固定的步态空间图重新缩放固定,得到步态时间图。
8.根据权利要求7所述的基于时空图的跨视角步态识别方法,其特征在于,所述空间卷积神经网络模块和时间卷积神经网络模块的网络配置均为:第一层的卷积神经网络是带有两层的16个7X7大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第二层的卷积神经网络是带有两层的64个5X5大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第三层的卷积神经网络是带有两层的128个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第四层的卷积神经网络是带有两层的256个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第五层是4096个神经元的全连接层,带有relu激活函数;第六层是4096个神经元的全连接层,带有relu激活函数;第七层输出特征向量的长度设置为训练数据的ID的数量,即5153,通过softmax函数后得到一个步态图属于某个ID的概率。
9.根据权利要求8所述的基于时空图的跨视角步态识别方法,其特征在于,对N个第一空间特征向量取平均得到一个长度为5153的时间特征向量,对M个第二空间特征向量取平均得到一个长度为5153的空间特征向量,将取平均后的第一空间特征向量和第二空间特征向量进行加权系数均为1/2的加权融合,得到最终表示一个步态序列的特征向量,公式如下:
其中,GSI(t,x,y)表示步态空间图对应时刻为t,对应坐标为(x,y)的像素点的值,GTI(x,t,y)表示的步态时间图对应高度为x,对应坐标为(t,y)的像素点的值,F1为空间卷积神经网络模块中的转换单元的输出,F2为时间卷积神经网络模块中的转换单元的输出;
将融合后的特征向量和数据库中存储的步态特征向量利用最近邻分类器一一进行匹配;设置最近邻数为1,设置距离函数为欧式距离函数,将数据库中匹配度大于H的特征向量对应的ID,作为到步态的身份识别结果,H>0。
CN201910366189.9A 2019-05-05 2019-05-05 一种基于时空图的跨视角步态识别方法 Active CN110222568B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910366189.9A CN110222568B (zh) 2019-05-05 2019-05-05 一种基于时空图的跨视角步态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910366189.9A CN110222568B (zh) 2019-05-05 2019-05-05 一种基于时空图的跨视角步态识别方法

Publications (2)

Publication Number Publication Date
CN110222568A CN110222568A (zh) 2019-09-10
CN110222568B true CN110222568B (zh) 2023-09-29

Family

ID=67820270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910366189.9A Active CN110222568B (zh) 2019-05-05 2019-05-05 一种基于时空图的跨视角步态识别方法

Country Status (1)

Country Link
CN (1) CN110222568B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160294B (zh) * 2019-12-31 2022-03-04 西安理工大学 基于图卷积网络的步态识别方法
CN111695523B (zh) * 2020-06-15 2023-09-26 浙江理工大学 基于骨骼时空及动态信息的双流卷积神经网络动作识别方法
CN112580546B (zh) * 2020-12-24 2022-05-03 电子科技大学 一种用于无人机图像和卫星图像跨视角图像匹配方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408933A (zh) * 2008-05-21 2009-04-15 浙江师范大学 基于粗网格特征提取和bp神经网络的车牌字符识别方法
CN102663393A (zh) * 2012-03-02 2012-09-12 哈尔滨工程大学 基于旋转校正的手指静脉图像感兴趣区域提取方法
CN103593651A (zh) * 2013-10-28 2014-02-19 西京学院 基于步态和二维判别分析的煤矿井下人员身份鉴别方法
CN103679171A (zh) * 2013-09-24 2014-03-26 暨南大学 基于人体重心轨迹分析的步态特征提取方法
CN104766085A (zh) * 2014-12-30 2015-07-08 沈阳理工大学 一种多尺度图形识别方法
CN108921062A (zh) * 2018-06-21 2018-11-30 暨南大学 一种联合多步态特征协同字典的步态识别方法
CN109446884A (zh) * 2018-09-06 2019-03-08 杭州电子科技大学 一种基于非线性动力学指标的速度无关的步态识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101408933A (zh) * 2008-05-21 2009-04-15 浙江师范大学 基于粗网格特征提取和bp神经网络的车牌字符识别方法
CN102663393A (zh) * 2012-03-02 2012-09-12 哈尔滨工程大学 基于旋转校正的手指静脉图像感兴趣区域提取方法
CN103679171A (zh) * 2013-09-24 2014-03-26 暨南大学 基于人体重心轨迹分析的步态特征提取方法
CN103593651A (zh) * 2013-10-28 2014-02-19 西京学院 基于步态和二维判别分析的煤矿井下人员身份鉴别方法
CN104766085A (zh) * 2014-12-30 2015-07-08 沈阳理工大学 一种多尺度图形识别方法
CN108921062A (zh) * 2018-06-21 2018-11-30 暨南大学 一种联合多步态特征协同字典的步态识别方法
CN109446884A (zh) * 2018-09-06 2019-03-08 杭州电子科技大学 一种基于非线性动力学指标的速度无关的步态识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Multi-View Gait Recognition Based on a Spatial-Temporal Deep Neural Network;Suibing Tong等;《 IEEE Access》;20181029;第57583-57596页 *
Multi-View Gait Recognition Based on a Spatial-Temporal Deep Neural Network;Suibing Tong等;《IEEE Access》;20181029;第57583-57596页 *

Also Published As

Publication number Publication date
CN110222568A (zh) 2019-09-10

Similar Documents

Publication Publication Date Title
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN111767882A (zh) 一种基于改进yolo模型的多模态行人检测方法
CN110222568B (zh) 一种基于时空图的跨视角步态识别方法
CN112801015B (zh) 一种基于注意力机制的多模态人脸识别方法
CN110738146A (zh) 一种目标重识别神经网络及其构建方法和应用
CN110097029B (zh) 基于Highway网络多视角步态识别的身份认证方法
CN110647820B (zh) 基于特征空间超分辨映射的低分辨率人脸识别方法
CN110263768A (zh) 一种基于深度残差网络的人脸识别方法
CN113642393B (zh) 基于注意力机制的多特征融合视线估计方法
CN112733665B (zh) 一种基于轻量化网络结构设计的人脸识别方法及系统
CN112329771B (zh) 一种基于深度学习的建筑材料样本识别方法
CN112836625A (zh) 人脸活体检测方法、装置、电子设备
CN111241924A (zh) 基于尺度估计的人脸检测及对齐方法、装置、存储介质
CN111340758A (zh) 一种基于深度神经网络的高效虹膜图像质量评价新方法
Hu et al. LDF-Net: Learning a displacement field network for face recognition across pose
CN110135435B (zh) 一种基于广度学习系统的显著性检测方法及装置
CN116229528A (zh) 一种活体掌静脉检测方法、装置、设备及存储介质
CN113807237B (zh) 活体检测模型的训练、活体检测方法、计算机设备及介质
CN110633631A (zh) 一种基于部件幂集和多尺度特征的行人重识别方法
CN117437691A (zh) 一种基于轻量化网络的实时多人异常行为识别方法及系统
CN115661754B (zh) 一种基于维度融合注意力的行人重识别方法
Pang et al. PTRSegNet: A Patch-to-Region Bottom-Up Pyramid Framework for the Semantic Segmentation of Large-Format Remote Sensing Images
CN114613016A (zh) 基于Xception网络改进的手势图像特征提取方法
CN114429646A (zh) 基于深度自注意力变换网络的步态识别方法
CN110427892B (zh) 基于深浅层自相关融合的cnn人脸表情特征点定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant