CN110222568A - 一种基于时空图的跨视角步态识别方法 - Google Patents
一种基于时空图的跨视角步态识别方法 Download PDFInfo
- Publication number
- CN110222568A CN110222568A CN201910366189.9A CN201910366189A CN110222568A CN 110222568 A CN110222568 A CN 110222568A CN 201910366189 A CN201910366189 A CN 201910366189A CN 110222568 A CN110222568 A CN 110222568A
- Authority
- CN
- China
- Prior art keywords
- gait
- space
- diagram
- time
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于时空图的跨视角步态识别方法,S11,对待识别原始图片进行背景减除,并按等高同比例裁剪得到步态空间图;S12,对所述步态空间图的坐标索引进行转置,对转置后的步态空间图按第一维展开,得到步态时间图;S13,分别构建用于提取步态空间特征的空间卷积神经网络模块和用于提取步态动态时间特征的时间卷积神经网络模块;S14,将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量;本发明弥补了步态识别常用的GEI特征中对步态的动态不充分的缺点。
Description
技术领域
本发明涉及身份识别技术领域,具体涉及一种基于时空图的跨视角步态识别方法。
背景技术
随着计算机视觉技术的发展,人们利用计算机来分析人的步态从而对人进行身份识别成为了可能,步态识别在近年来被学术界的学者们广泛研究,它是一种利用人在行走过程中的运动方式来对人进行身份识别的一种生物识别技术,与其他生物识别技术相比(如人脸,指纹等识别技术),步态识别技术具有识别远距离、非侵犯性、难以伪装、安全性高等特点,在安防、智能监控等领域有着非常广阔的应用前景,是一个非常值得研究的课题。
当前主流的跨视角的步态识别方法主要是使用统计学模型或者深度学习模型对步态能量图(Gait Energy Image,简称GEI)进行参数学习,将不同视角的步态能量图输入到模型中进行参数学习,从而得到一个与视角无关的特征提取器,然后利用提取到的特征进行特征匹配,实现对人物的身份识别。但是这种类型的方法在取得步态能量图的时候已经损失掉了很多动态的步态信息,且步态能量图本身较为模糊,包含的动态的步态信息不足,在卷积神经网络中也无法很好地提取到足够的步态信息,在大数据集下面无法达到理想化的精度。
发明内容
本发明的目的是为了克服以上现有技术存在的不足,提供了一种基于时空图的跨视角步态识别方法。
本发明的目的通过以下的技术方案实现:
一种基于时空图的跨视角步态识别方法,包括:
S11,对待识别原始图片进行背景减除,并按等高同比例裁剪得到步态空间图;
S12,对所述步态空间图的坐标索引进行转置,对转置后的步态空间图按第一维展开,得到步态时间图;
S13,分别构建用于提取步态空间特征(Gait Temporal Image,简称GTI)的空间卷积神经网络模块和用于提取步态动态时间特征(Gait Spatial Image,简称GSI)的时间卷积神经网络模块;
S14,将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量;N≥1,M≥1;
S15,将所述第一空间特征向量和第二空间特征向量进行加权融合;将融合后的特征向量和数据库中存储的步态特征向量进行一一匹配;
S16,若匹配成功,则根据数据库中存储的步态特征向量对应的身份信息得到待识别步态的身份信息,并输出识别结果。
优选地,步骤S11包括:对待识别原始图片利用二值化进行背景减除,并按等高同比例裁剪,得到数量不固定、高宽固定的步态空间图。
优选地,步骤S12还包括:对所述步态空间图的数量进行限制;对所述步态空间图的数量进行限制包括:预先设置时间轴长度为定值L,所述步态空间图为K张,若K≥L≥1,则选取最开始的L张步态空间图;若K<L,采用随机插帧方法将步态空间图补齐到L张。
优选地,步骤S13包括:使用所述步态空间图对空间卷积神经网络模块进行训练,直到模型收敛;使用所述步态时间图对时间卷积神经网络模块进行训练,直到模型收敛。
优选地,所述将所述第一空间特征向量和第二空间特征向量进行加权融合包括:分别对N个第一空间特征向量、M个第二空间特征向量取平均,将取平均后的第一空间特征向量和第二空间特征向量进行加权融合。
优选地,若所述待识别原始图片来自步态数据库OU-ISIR MVLP,步骤S11包括:将步态数据库OU-ISIR MVLP中的步态序列数据进行预处理,获取包含人物的黑白图片,根据像素质心公式计算所述黑白图片的质心位置,以像素质心点为中心,将所述黑白图片中像素点的最高点及最低点作为截取的范围,宽度按同比例,对所述黑白图片中人物部分进行截取,得到步态空间图,其中,步态数据库OU-ISIR MVLP包含10,307个人物的步态序列,其中5153个ID所对应的步态序列用于训练过程,其余ID所对应的步态序列用于测试过程。
优选地,所述像素质心公式为:
其中,P(x=i,y=j)指的是像素点i,j上面的值,i,j为图片的索引下标。
优选地,对所述步态空间图按时间轴进行转置,则有GSI(t,y,x)=GTI(y,t,x),将时间轴长度设置为L=64,若所述步态空间图的张数为超过64选取最开始的64张图;若所述步态空间图的张数不足64张图,则采用随机插帧方法将步态空间图补齐到L张;同时使用图像缩放方法将尺寸不固定的步态空间图重新缩放固定,得到步态时间图。
优选地,所述空间卷积神经网络模块和时间卷积神经网络模块的网络配置均为:第一层的卷积神经网络是带有两层的16个7X7大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第二层的卷积神经网络是带有两层的64个5X5大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第三层的卷积神经网络是带有两层的128个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第四层的卷积神经网络是带有两层的256个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第五层是4096个神经元的全连接层,带有relu激活函数;第六层是4096个神经元的全连接层,带有relu激活函数。第七层输出特征向量的长度设置为训练数据的ID的数量,即5153,通过softmax函数后得到一个步态图属于某个ID的概率。
优选地,对N个第一空间特征向量取平均得到一个长度为5153的时间特征向量,对M个第二空间特征向量取平均得到一个长度为5153的空间特征向量,将取平均后的第一空间特征向量和第二空间特征向量进行加权系数均为1/2的加权融合,得到最终表示一个步态序列的特征向量,公式如下:
其中,GSI(t,x,y)表示步态空间图对应时刻为t,对应坐标为(x,y)的像素点的值,GTI(x,t,y)表示的步态时间图对应高度为x,对应坐标为(t,y)的像素点的值,F1为空间卷积神经网络模块中的转换单元的输出,F2为时间卷积神经网络模块中的转换单元的输出。
将融合后的特征向量和数据库中存储的步态特征向量利用最近邻分类器一一进行匹配;设置最近邻数为1,设置距离函数为欧式距离函数,将数据库中匹配度大于H的特征向量对应的ID,作为到步态的身份识别结果,H>0。
本发明相对于现有技术具有如下的优点:
本发明根据步态识别方法的特点,提出的使用两个独立的卷积神经网络分别对步态的空间特征及时间特征进行学习,形成双流的卷积神经网络,然后对空间、时间的步态特征进行融合,这种融合后的步态特征比传统的GEI特征来说更加具有鲁棒性;本发明利用步态识别方法中普遍使用到的等高剪影图的特点,提出了一种新的步态的时间特征(GaitTemporal Image),弥补了步态识别常用的GEI特征中对步态的动态不充分的缺点,在一定程度上也为深度学习提供了更多的数据,使得模型的精度更高;本发明利用深度学习中的卷积神经网络技术,通过多视角的训练及参数的相对应优化,能够自动提取非常抽象的与视角无关的步态深度特征,进而实现较高的准确率;本发明方法可以广泛应用于步态识别系统、动作识别、行为识别等领域,在安防、智能监控等领域具有广泛的适用性。
附图说明
图1是本发明的基于时空图的跨视角步态识别方法的流程示意图。
图2是本发明的步态空间图。
图3是本发明的步态时间图。
图4是本发明的卷积神经网络模块的特征提取的示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
参见图1、一种基于时空图的跨视角步态识别方法,包括:
S11,对待识别原始图片进行背景减除,并按等高同比例裁剪得到步态空间图;步骤S11包括:对待识别原始图片利用二值化进行背景减除,并按等高同比例裁剪,得到数量不固定、高宽固定的步态空间图。其中待识别原始图片是待识别的步态的一种形式。
S12,对所述步态空间图的坐标索引进行转置,对转置后的步态空间图按第一维展开,得到步态时间图;步骤S12还包括:对所述步态空间图的数量进行限制;对所述步态空间图的数量进行限制包括:预先设置时间轴长度为定值L,所述步态空间图为K张,若K≥L≥1,则选取最开始的L张步态空间图;若K<L,采用随机插帧方法将步态空间图补齐到L张。
S13,分别构建用于提取步态空间特征的空间卷积神经网络模块和用于提取步态动态时间特征的时间卷积神经网络模块;步骤S13包括:使用所述步态空间图对空间卷积神经网络模块进行训练,直到模型收敛;使用所述步态时间图对时间卷积神经网络模块进行训练,直到模型收敛。
S14,将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量;N≥1,M≥1;
S15,将所述第一空间特征向量和第二空间特征向量进行加权融合;将融合后的特征向量和数据库中存储的步态特征向量进行一一匹配;所述将所述第一空间特征向量和第二空间特征向量进行加权融合包括:分别对N个第一空间特征向量、M个第二空间特征向量取平均,将取平均后的第一空间特征向量和第二空间特征向量进行加权融合。
S16,若匹配成功,则根据数据库中存储的步态特征向量对应的身份信息得到待识别步态的身份信息,并输出识别结果。
本发明的基于时空图的跨视角步态识别方法的具体应用实施例如下:
(1)所述待识别原始图片来自日本大阪大学(Osaka University)所提供的步态数据库OU-ISIR MVLP,将步态数据库OU-ISIR MVLP中每个ID的14个视角的步态序列数据进行预处理,获取包含人物的黑白图片,根据像素质心公式计算所述黑白图片的质心位置,以像素质心点为中心,将所述黑白图片中像素点的最高点及最低点作为截取的范围,宽度按同比例,对所述黑白图片中人物部分进行截取,缩放到固定的尺寸128x88,得到统一尺寸的步态空间图(Gait Spatial Image,GSI),并保存为图片,最终结果如图2所示,其中,步态数据库OU-ISIR MVLP包含10,307个人物的步态序列,其中5153个ID所对应的步态序列用于训练过程,其余ID所对应的步态序列用于测试过程。
所述像素质心公式为:
其中,P(x=i,y=j)指的是像素点i,j上面的值,i,j为图片的索引下标。
(2)对所述步态空间图(GSI)按时间轴进行转置,则有GSI(t,y,x)=GTI(y,t,x),将时间轴长度设置为L=64,若所述步态空间图的张数为超过64选取最开始的64张图;若所述步态空间图的张数不足64张图,则采用随机插帧方法将步态空间图补齐到L张;使用随机插帧方法得到的步态时间图称为Clipped Gait Temporal Image,简称CGTI。同时使用图像缩放方法(双线性插值)将尺寸不固定的步态空间图重新缩放固定,得到步态时间图,将使用图像缩放法得到的步态时间图称为Resized Gait Temporal Image,简称RGTI,并保存为图片,如图3所示。
(3)分别构建用于提取步态空间特征的空间卷积神经网络模块和用于提取步态动态时间特征的时间卷积神经网络模块,所述空间卷积神经网络模块和时间卷积神经网络模块的网络配置均为:第一层的卷积神经网络是带有两层的16个7X7大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第二层的卷积神经网络是带有两层的64个5X5大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第三层的卷积神经网络是带有两层的128个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第四层的卷积神经网络是带有两层的256个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第五层是4096个神经元的全连接层,带有relu激活函数;第六层是4096个神经元的全连接层,带有relu激活函数。第七层输出特征向量的长度设置为训练数据的ID的数量,即5153,通过softmax函数后得到一个步态图属于某个ID的概率。
(4)将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量,对N个第一空间特征向量取平均得到一个长度为5153的时间特征向量,对M个第二空间特征向量取平均得到一个长度为5153的空间特征向量,将取平均后的第一空间特征向量和第二空间特征向量进行加权系数均为1/2的加权融合,得到最终表示一个步态序列的特征向量,转换过程示意图如图4。
公式如下:
其中,GSI(t,x,y)表示步态空间图对应时刻为t,对应坐标为(x,y)的像素点的值,GTI(x,t,y)表示的步态时间图对应高度为x,对应坐标为(t,y)的像素点的值,F1为空间卷积神经网络模块中的转换单元的输出,F2为时间卷积神经网络模块中的转换单元的输出。
(5)将融合后的特征向量和数据库中存储的步态特征向量利用最近邻分类器一一进行匹配;设置最近邻数为1,设置距离函数为欧式距离函数,将数据库中匹配度大于H的特征向量对应的ID,作为到步态的身份识别结果,H>0,即在数据库中查找,得到特征向量最接近的一个向量所对应的ID,作为到步态的身份识别结果。
上述具体实施方式为本发明的优选实施例,并不能对本发明进行限定,其他的任何未背离本发明的技术方案而所做的改变或其它等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.一种基于时空图的跨视角步态识别方法,其特征在于,包括:
S11,对待识别原始图片进行背景减除,并按等高同比例裁剪得到步态空间图;
S12,对所述步态空间图的坐标索引进行转置,对转置后的步态空间图按第一维展开,得到步态时间图;
S13,分别构建用于提取步态空间特征的空间卷积神经网络模块和用于提取步态动态时间特征的时间卷积神经网络模块;
S14,将所述步态空间图输入到空间卷积神经网络模块进行步态的特征提取,得到N个第一空间特征向量,将所述步态时间图输入到时间卷积神经网络模块进行步态的特征提取,得到M个第二空间特征向量;N≥1,M≥1;
S15,将所述第一空间特征向量和第二空间特征向量进行加权融合;将融合后的特征向量和数据库中存储的步态特征向量进行一一匹配;
S16,若匹配成功,则根据数据库中存储的步态特征向量对应的身份信息得到待识别步态的身份信息,并输出识别结果。
2.根据权利要求1所述的基于时空图的跨视角步态识别方法,其特征在于,步骤S11包括:对待识别原始图片利用二值化进行背景减除,并按等高同比例裁剪,得到数量不固定、高宽固定的步态空间图。
3.根据权利要求1所述的基于时空图的跨视角步态识别方法,其特征在于,步骤S12还包括:对所述步态空间图的数量进行限制;对所述步态空间图的数量进行限制包括:预先设置时间轴长度为定值L,所述步态空间图为K张,若K≥L≥1,则选取最开始的L张步态空间图;若K<L,采用随机插帧方法将步态空间图补齐到L张。
4.根据权利要求1所述的基于时空图的跨视角步态识别方法,其特征在于,步骤S13包括:使用所述步态空间图对空间卷积神经网络模块进行训练,直到模型收敛;使用所述步态时间图对时间卷积神经网络模块进行训练,直到模型收敛。
5.根据权利要求1所述的基于时空图的跨视角步态识别方法,其特征在于,所述将所述第一空间特征向量和第二空间特征向量进行加权融合包括:分别对N个第一空间特征向量、M个第二空间特征向量取平均,将取平均后的第一空间特征向量和第二空间特征向量进行加权融合。
6.根据权利要求2所述的基于时空图的跨视角步态识别方法,其特征在于,若所述待识别原始图片来自步态数据库OU-ISIR MVLP,步骤S11包括:
将步态数据库OU-ISIR MVLP中的步态序列数据进行预处理,获取包含人物的黑白图片,根据像素质心公式计算所述黑白图片的质心位置,以像素质心点为中心,将所述黑白图片中像素点的最高点及最低点作为截取的范围,宽度按同比例,对所述黑白图片中人物部分进行截取,得到步态空间图,其中,步态数据库OU-ISIR MVLP包含10,307个人物的步态序列,其中5153个ID所对应的步态序列用于训练过程,其余ID所对应的步态序列用于测试过程。
7.根据权利要求6所述的基于时空图的跨视角步态识别方法,其特征在于,所述像素质心公式为:
其中,P(x=i,y=j)指的是像素点i,j上面的值,i,j为图片的索引下标。
8.根据权利要求7所述的基于时空图的跨视角步态识别方法,其特征在于,包括:对所述步态空间图按时间轴进行转置,则有GSI(t,y,x)=GTI(y,t,x),将时间轴长度设置为L=64,若所述步态空间图的张数为超过64选取最开始的64张图;若所述步态空间图的张数不足64张图,则采用随机插帧方法将步态空间图补齐到L张;同时使用图像缩放方法将尺寸不固定的步态空间图重新缩放固定,得到步态时间图。
9.根据权利要求8所述的基于时空图的跨视角步态识别方法,其特征在于,所述空间卷积神经网络模块和时间卷积神经网络模块的网络配置均为:第一层的卷积神经网络是带有两层的16个7X7大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第二层的卷积神经网络是带有两层的64个5X5大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第三层的卷积神经网络是带有两层的128个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第四层的卷积神经网络是带有两层的256个3X3大小的卷积核、步长为1的二维卷积层,接着带有2X2大小、步长为2的池化层及批规范化层;第五层是4096个神经元的全连接层,带有relu激活函数;第六层是4096个神经元的全连接层,带有relu激活函数;第七层输出特征向量的长度设置为训练数据的ID的数量,即5153,通过softmax函数后得到一个步态图属于某个ID的概率。
10.根据权利要求9所述的基于时空图的跨视角步态识别方法,其特征在于,对N个第一空间特征向量取平均得到一个长度为5153的时间特征向量,对M个第二空间特征向量取平均得到一个长度为5153的空间特征向量,将取平均后的第一空间特征向量和第二空间特征向量进行加权系数均为1/2的加权融合,得到最终表示一个步态序列的特征向量,公式如下:
其中,GSI(t,x,y)表示步态空间图对应时刻为t,对应坐标为(x,y)的像素点的值,GTI(x,t,y)表示的步态时间图对应高度为x,对应坐标为(t,y)的像素点的值,F1为空间卷积神经网络模块中的转换单元的输出,F2为时间卷积神经网络模块中的转换单元的输出;
将融合后的特征向量和数据库中存储的步态特征向量利用最近邻分类器一一进行匹配;设置最近邻数为1,设置距离函数为欧式距离函数,将数据库中匹配度大于H的特征向量对应的ID,作为到步态的身份识别结果,H>0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910366189.9A CN110222568B (zh) | 2019-05-05 | 2019-05-05 | 一种基于时空图的跨视角步态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910366189.9A CN110222568B (zh) | 2019-05-05 | 2019-05-05 | 一种基于时空图的跨视角步态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110222568A true CN110222568A (zh) | 2019-09-10 |
CN110222568B CN110222568B (zh) | 2023-09-29 |
Family
ID=67820270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910366189.9A Active CN110222568B (zh) | 2019-05-05 | 2019-05-05 | 一种基于时空图的跨视角步态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110222568B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160294A (zh) * | 2019-12-31 | 2020-05-15 | 西安理工大学 | 基于图卷积网络的步态识别方法 |
CN111695523A (zh) * | 2020-06-15 | 2020-09-22 | 浙江理工大学 | 基于骨骼时空及动态信息的双流卷积神经网络动作识别方法 |
CN112580546A (zh) * | 2020-12-24 | 2021-03-30 | 电子科技大学 | 一种用于无人机图像和卫星图像跨视角图像匹配方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101408933A (zh) * | 2008-05-21 | 2009-04-15 | 浙江师范大学 | 基于粗网格特征提取和bp神经网络的车牌字符识别方法 |
CN102663393A (zh) * | 2012-03-02 | 2012-09-12 | 哈尔滨工程大学 | 基于旋转校正的手指静脉图像感兴趣区域提取方法 |
CN103593651A (zh) * | 2013-10-28 | 2014-02-19 | 西京学院 | 基于步态和二维判别分析的煤矿井下人员身份鉴别方法 |
CN103679171A (zh) * | 2013-09-24 | 2014-03-26 | 暨南大学 | 基于人体重心轨迹分析的步态特征提取方法 |
CN104766085A (zh) * | 2014-12-30 | 2015-07-08 | 沈阳理工大学 | 一种多尺度图形识别方法 |
CN108921062A (zh) * | 2018-06-21 | 2018-11-30 | 暨南大学 | 一种联合多步态特征协同字典的步态识别方法 |
CN109446884A (zh) * | 2018-09-06 | 2019-03-08 | 杭州电子科技大学 | 一种基于非线性动力学指标的速度无关的步态识别方法 |
-
2019
- 2019-05-05 CN CN201910366189.9A patent/CN110222568B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101408933A (zh) * | 2008-05-21 | 2009-04-15 | 浙江师范大学 | 基于粗网格特征提取和bp神经网络的车牌字符识别方法 |
CN102663393A (zh) * | 2012-03-02 | 2012-09-12 | 哈尔滨工程大学 | 基于旋转校正的手指静脉图像感兴趣区域提取方法 |
CN103679171A (zh) * | 2013-09-24 | 2014-03-26 | 暨南大学 | 基于人体重心轨迹分析的步态特征提取方法 |
CN103593651A (zh) * | 2013-10-28 | 2014-02-19 | 西京学院 | 基于步态和二维判别分析的煤矿井下人员身份鉴别方法 |
CN104766085A (zh) * | 2014-12-30 | 2015-07-08 | 沈阳理工大学 | 一种多尺度图形识别方法 |
CN108921062A (zh) * | 2018-06-21 | 2018-11-30 | 暨南大学 | 一种联合多步态特征协同字典的步态识别方法 |
CN109446884A (zh) * | 2018-09-06 | 2019-03-08 | 杭州电子科技大学 | 一种基于非线性动力学指标的速度无关的步态识别方法 |
Non-Patent Citations (2)
Title |
---|
SUIBING TONG等: "Multi-View Gait Recognition Based on a Spatial-Temporal Deep Neural Network", 《 IEEE ACCESS》 * |
SUIBING TONG等: "Multi-View Gait Recognition Based on a Spatial-Temporal Deep Neural Network", 《IEEE ACCESS》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160294A (zh) * | 2019-12-31 | 2020-05-15 | 西安理工大学 | 基于图卷积网络的步态识别方法 |
CN111160294B (zh) * | 2019-12-31 | 2022-03-04 | 西安理工大学 | 基于图卷积网络的步态识别方法 |
CN111695523A (zh) * | 2020-06-15 | 2020-09-22 | 浙江理工大学 | 基于骨骼时空及动态信息的双流卷积神经网络动作识别方法 |
CN111695523B (zh) * | 2020-06-15 | 2023-09-26 | 浙江理工大学 | 基于骨骼时空及动态信息的双流卷积神经网络动作识别方法 |
CN112580546A (zh) * | 2020-12-24 | 2021-03-30 | 电子科技大学 | 一种用于无人机图像和卫星图像跨视角图像匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110222568B (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
WO2021098261A1 (zh) | 一种目标检测方法与装置 | |
CN108520216B (zh) | 一种基于步态图像的身份识别方法 | |
CN109543606A (zh) | 一种加入注意力机制的人脸识别方法 | |
CN110929736B (zh) | 多特征级联rgb-d显著性目标检测方法 | |
CN100557624C (zh) | 基于多部件多特征融合的人脸识别方法 | |
CN112801015B (zh) | 一种基于注意力机制的多模态人脸识别方法 | |
CN109934195A (zh) | 一种基于信息融合的反欺骗三维人脸识别方法 | |
CN105956560A (zh) | 一种基于池化多尺度深度卷积特征的车型识别方法 | |
CN112766159A (zh) | 一种基于多特征融合的跨数据库微表情识别方法 | |
CN110097029B (zh) | 基于Highway网络多视角步态识别的身份认证方法 | |
CN102779269B (zh) | 基于图像传感器成像系统的人脸识别算法 | |
CN103824272A (zh) | 基于k近邻重识别的人脸超分辨率重建方法 | |
CN113159232A (zh) | 一种三维目标分类、分割方法 | |
CN110222568A (zh) | 一种基于时空图的跨视角步态识别方法 | |
CN101169830A (zh) | 基于嵌入式隐马尔可夫模型和选择性集成的人脸画像自动生成方法 | |
CN110705566B (zh) | 一种基于空间金字塔池的多模态融合显著性检测方法 | |
Zhong et al. | Combining multilevel feature extraction and multi-loss learning for person re-identification | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
CN111985332B (zh) | 一种基于深度学习的改进损失函数的步态识别方法 | |
CN104966075B (zh) | 一种基于二维判别特征的人脸识别方法与系统 | |
CN111881716A (zh) | 一种基于多视角生成对抗网络的行人重识别方法 | |
CN115661754B (zh) | 一种基于维度融合注意力的行人重识别方法 | |
CN111340758A (zh) | 一种基于深度神经网络的高效虹膜图像质量评价新方法 | |
CN114429646A (zh) | 基于深度自注意力变换网络的步态识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |