CN108921019A - 一种基于GEI和TripletLoss-DenseNet的步态识别方法 - Google Patents
一种基于GEI和TripletLoss-DenseNet的步态识别方法 Download PDFInfo
- Publication number
- CN108921019A CN108921019A CN201810518121.3A CN201810518121A CN108921019A CN 108921019 A CN108921019 A CN 108921019A CN 201810518121 A CN201810518121 A CN 201810518121A CN 108921019 A CN108921019 A CN 108921019A
- Authority
- CN
- China
- Prior art keywords
- gait
- gei
- pedestrian
- tripletloss
- densenet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于GEI和TripletLoss‑DenseNet的步态识别方法,该方法将步态能量图GEI作为网络的输入,采用稠密连接方式连接网络各层,并使用三元组损失函数计算训练的损失值,通过优化损失值,反向传播更新模型参数,训练网络模型直至该模型收敛。经过网络的训练,最终将GEI映射为特定空间S上一维数组表示的特征向量,并用特征向量间的欧氏距离表示行人的相似度,通过相似度来匹配步态识别人的身份。通过在CASIA步态数据库的DatasetB上进行测试,体现了该模型具有较强的特征映射能力,证明了本发明能在训练样本较少的情况下训练出性能优越的基于步态的识别模型,而且具有跨视角识别、模型参数少等优点。
Description
技术领域
本发明涉及深度学习、计算机视觉和模式识别领域,特别涉及一种基于步态能量图(Gait Engery Image,GEI)和TripletLoss-DenseNet的步态识别方法。
背景技术
传统的生物识别技术包括:人脸、虹膜、指纹等,但不同于这些传统的技术,步态识别技术具有远距离、非受控、不易模仿、难以隐藏等独特的优势,这使得其具有更广阔的应用背景,包括科研、交通、罪犯检测等。
在以往的步态识别方法中,首先从视频序列中提取行人轮廓,并计算其步态能量图GEI,然后比较不同GEI之间的相似度,最终通过KNN进行分类识别。这些方法学习到的是一种具体身份的分类能力。但是以往的方法有两个很大的问题:多视角的情况下,精度很差,实用性大大降低;高纬度的特征计算量太大,不利于后期的计算和存储,且导致分类效果也很差。
近些年,深度学习方法在人脸识别、语音识别、图像分类与检测等领域都取得了非常好的结果。之所以能取得如此好的结果,主要是因为深度卷积神经网络具有高度的非线性映射,能够学习到一种很强的特征映射能力,而这为设计复杂的高精度分类模型提供了可能性。
发明内容
为了解决现有步态识别技术在处理跨视角步态识别时精度不高以及数据处理步骤复杂的问题。
本发明采用的技术方案为一种基于GEI和TripletLoss-DenseNet的步态识别方法,该方法将步态能量图GEI作为TripletLoss-DenseNet CNN的输入,使用网络将GEI映射为特定空间S上一维数组表示的特征向量,用特征向量间的欧氏距离表示行人的相似度,通过相似度来匹配步态识别人的身份。该方法包括步态能量图提取,模型训练,识别三个过程,具体如下:
步骤S1,步态能量图提取过程:
步骤S1.1,行人检测;
首先用只含背景的图片建模,然后利用背景减除法直接提取视频每一帧中二值化行人轮廓图像,得到的二值化行人轮廓图像;
步骤S1.2,步态轮廓图像预处理:
将步骤S1.1得到的二值化行人轮廓图像利用形态学处理的方法消除图像中的噪声,并填补运动目标中像素位的缺失,以获得经过噪声处理后的二值化行人轮廓图像;
步骤S1.3,将二值化行人轮廓图像尺寸归一化,中心化;
从步骤S1.2获取的无噪声且轮廓完整平滑的二值化行人轮廓图像中提取行人轮廓的外接矩形部分图像,然后将外接矩形部分图像在不改变图像中行人轮廓形状的情况下,归一化为尺寸相同且所有帧中行人轮廓中心对齐的二值化行人轮廓图像;
步骤S1.4,步态周期检测:
因行人行走过程中,人体轮廓所占像素点面积随步态周期呈周期性变化,根据人体轮廓所占像素点面积变化规律,从步骤S1.3处理得到的二值化行人轮廓图像序列中提取一个步态周期的二值化行人轮廓图像序列。行人左脚或右脚迈出到该左脚或右脚下一次迈出为一个步态周期。
步骤S1.5,GEI提取过程:
将步骤S1.4处理得到的一个步态周期的所有二值化行人轮廓图像,带入GEI计算公式,计算得到行人的步态能量图;
步骤S2,训练过程:
步骤S2.1,将步骤S1得到的GEI图像样本输入TripletLoss-DenseNet卷积神经网络,经过网络映射,输出为一维数组表示的特征向量,用以表示步态特征;
步骤S2.2,在步骤S2.1处理得到的特征向量中根据三元组选择方法,选择三元组对;
步骤S2.3,根据三元组损失计算公式,计算步骤S2.2得到的三元组对的损失值,并以损失函数值为目标优化步骤S2.1中的TripletLoss-DenseNet模型;
步骤S2.4,重复步骤S2.1至步骤S2.3直至TripletLoss-DenseNet CNN模型收敛;
步骤S3,识别过程;
步骤S3.1,将待识别的步态序列(即用于识别的一个测试步态序列)经过步骤S1获取其GEI;
步骤S3.2,将步骤S3.1获取的GEI作为TripletLoss-DenseNet网络的输入,通过网络计算,得到对应的特征向量;
步骤S3.3,通过对比步骤S3.2获取的待识别的步态特征向量与视频库中存档的特征向量,获取待识别步态序列的身份。
保证网络的输入图像是无噪声且对齐的。
每个训练样本经过网络映射得到的应该是一维数组表示的特征向量,且维度应限制在100维至200维之间。
训练时应设定合适的步长,且每步训练中,采样的人数和每人采样的GEI样本数需满足三元组选择的要求。
训练的步长应根据每步训练采样的数据动态变化。
GEI计算公式:其中N和t分别代表一个步态周期中二值轮廓图像的个数,和当前二值轮廓图像在N张图像中的序号。S代表第t张二值图像在(x,y)坐标处的像素值。
三元组损失计算公式:其中为固定的样本图像,被称为锚点样本;称为正样本,它和来自同一身份;称为负样本,与来自不同身份。分别为映射后的特征向量。α是一个强制存在的用于区分正样本和负样本的常量。n是训练集中所有可能的三元组的组数总和。
本发明构建了基于GEI和TripletLoss-DenseNet的步态识别模型,通过多视角下的步态视频序列对应的GEI训练该模型,使得该模型具有跨视角识别步态的能力。该网络采用GEI图像作为输入,并使用三元组损失函数作为损失函数训练网络,网络训练结果为一维数组表示的特征向量。而且由于网络的深度的增加,传递的一些信息强度会逐渐下降,一些信息甚至会消失,所以本方法采用稠密连接方法连接网络各层。本发明的方法在CASIA步态数据库中的CASIA-B取得较高识别精度,优于近期其他在该数据集上做实验的方法。
附图说明
图1为本发明所涉及的未处理的视频序列图像。
图2为本发明所涉及的经过步骤S1处理的视频序列帧图像;
图3为本发明所涉及的步骤S1的处理过程;
图4为本发明所涉及的步骤S2的处理过程;
图5为本发明所涉及的基于GEI和TripletLoss-DenseNet的网络结构;
图6为本发明所涉及的步骤S3的处理过程;
具体实施方式
为使本发明的目的,技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明做近一步的详细说明。
视频图像预处理过程:预处理过程如图3所示。
步骤S1,获取GEI(步态能量图):
步骤S1.1,使用前景检测方法ViBe来提取视频图像中行人轮廓。首先,在视频的前几帧中提取背景,用以背景建模,然后使用ViBe(一种运动目标检测算法)方法直接提取视频每一帧中二值化行人轮廓图像,并在提取过程中采用随机更新策略更新背景样本点。
步骤S1.2,由于步骤S1.1处理得到的图像存在噪声,如:有些背景被误认为行人轮廓,故使用形态学中的开闭操作消除二值化行人图像中的噪声,并使用漫水填充操作填补运动目标中像素位的缺失,使图像更加光滑,以获得最佳二值化行人轮廓图像。
步骤S1.3,由于步骤S1.2处理得到的图像中与行人轮廓无关的背景信息较多,故需提取包含行人轮廓的最大外接矩阵,即从行人轮廓图像中提取BoundingBox,其中面积最大的BoundingBox便为行人轮廓的外接矩形图像。但是每个行人轮廓的矩形图像尺寸不一致,而且为了更方便的进行网络训练,还需对矩形图像的尺寸进行等比例归一化、中心化,以获取统一尺寸的GEI图像样本。具体操作:首先将矩形图像的高度固定为P个像素位,根据缩放比例,将其宽度进行等比例放缩。其次,固定轮廓垂直中轴线将图像宽度也补全为P个像素位,最终得到像素为P*P的图像序列。
步骤S1.4,根据人体轮廓所占像素点面积值的变化规律,取三个相邻的最大值之间的全部二值化行人轮廓图像为一个完整的步态周期。一个步态周期的二值化行人轮廓图像序列对应一个行人体左脚(或右脚)迈出到该脚下一次迈出的视频序列。
步骤S1.5,将步骤S1.4处理得到的一个步态周期对应的二值化行人轮廓图像序列带入GEI计算公式,得到的该步态周期的步态能量图GEI。
模型训练过程:训练网络过程如图4所示。
步骤S2,训练基于GEI和TripletLoss-DenseNet的分类模型:
步骤S2.1,由步骤S1得到GEI训练集,该训练集包含n个行人,且每个行人含有c张GEI图像。
步骤S2.2,每次训练从训练集中随机抽样N(N<n)个行人,每个行人随机抽样C(C<c)张GEI,将N*C张GEI作为网络的输入,经过网络训练,得到一个N*C个一维向量(128维)。网络结构示意图如图5所示。网络结构具体组成为:一个卷积层C、一个最大池化层P、4个Block层、3个TranstionLayer层以及一个全连接层FC。其中,Block层由多个conv层构成,每个conv层包含批规范化(BN)操作,relu激活函数,conv卷积操作和dropout操作。TranstionLayer层包括正则化操作,conv卷积操作以及池化操作。全连接层FC后紧接着是一个L2normalize(L2范式)操作,其作用是将全连接层得到的128维度的向量进行L2标准化处理,得到一维数组表示的特征向量,即网络的输出。
步骤S2.3,前向传播完成后,根据三元组选择原则,在步骤S2.2处理得到的特征向量中选出N对三元组。具体的三元组选择过程如下:给定一个选择出与属于同一身份但与距离最远的一个即使取得最大值,类似地,从所有其他身份的训练数据中选择一个与身份不同但与距离最近的一个即使的值最大。
步骤S2.4,将步骤S2.3得到的N对三元组带入三元组损失函数计算公式,计算出本次训练的三元组损失值t-loss,并以t-loss为目标使用SGD优化器,反向传播优化模型参数。
步骤S2.5,重复执行步骤S2.2至步骤S2.4直到模型收敛。
识别过程:识别过程如图6所示。
步骤S3:识别过程:
步骤S3.1,将待识别的步态序列经过步骤S1获取其GEI,即待识别样本S。
步骤S3.2,将步骤S3.1获取的GEI图像作为TripletLoss-DenseNet网络的输入,经过网络训练,获取其对应的特征向量T;
步骤S3.3,依次计算步骤S3.2获取的待识别的特征向量T与视频库中的特征向量(T1,T2…..Tn)的欧氏距离(d1,d2…..dn);
步骤S3.4,选取经步骤S3.3计算的到的欧氏距离中的最小值di,若di大于设定阈值a,则说明视频库中不存在待识别步态的身份;反之,最小距离对应的身份即为待识别步态序列的身份;
本章实验主要在CASIA-B数据集上完成。数据集中共包含124个行人。模型的训练在数据集的前24个行人上完成,测试在后100个行人上完成。模型识别效率最高时训练时使用的超参数如下表X所示:
参数 | 含义 | 数值 |
max_nrof_epochs | 训练的代数 | 500 |
epoch_size | 每代训练次数 | 200 |
people_per_batch | 每次训练抽取的行人数量 | 15 |
images_per_person | 每个行人抽取的GEI数量 | 10 |
Optimizer | 选用的优化器 | ADAGRAD |
learning_rate | 学习率 | 0.1 |
gpu_memory_fraction | GPU分配效率 | 0.8 |
实验结果如下:
本发明方法构建了基于tripletLoss-denseNet神经网络的识别模型,通过包含多视角的训练序列训练该模型,使该模型具有跨视角的步态识别能力。在测试过程中,该发明方法在单视角的测试步态序列图像与视频库中步态序列图像(视角未必相同)的相似度计算有较高的准确度。由于这一特性,该方法可被广泛应用到安全监控等场景。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的包含范围应该以权力书的保护范围为准。
Claims (7)
1.一种基于GEI和TripletLoss-DenseNet的步态识别方法,其特征在于:该方法将步态能量图GEI作为TripletLoss-DenseNet CNN的输入,使用网络将GEI映射为特定空间S上一维数组表示的特征向量,用特征向量间的欧氏距离表示行人的相似度,通过相似度来匹配步态识别人的身份;该方法包括步态能量图提取,模型训练,识别三个过程,具体如下:
步骤S1,步态能量图提取过程:
步骤S1.1,行人检测;
首先用只含背景的图片建模,然后利用背景减除法直接提取视频每一帧中二值化行人轮廓图像,得到的二值化行人轮廓图像;
步骤S1.2,步态轮廓图像预处理:
将步骤S1.1得到的二值化行人轮廓图像利用形态学处理的方法消除图像中的噪声,并填补运动目标中像素位的缺失,以获得经过噪声处理后的二值化行人轮廓图像;
步骤S1.3,将二值化行人轮廓图像尺寸归一化,中心化;
从步骤S1.2获取的无噪声且轮廓完整平滑的二值化行人轮廓图像中提取行人轮廓的外接矩形部分图像,然后将外接矩形部分图像在不改变图像中行人轮廓形状的情况下,归一化为尺寸相同且所有帧中行人轮廓中心对齐的二值化行人轮廓图像;
步骤S1.4,步态周期检测:
因行人行走过程中,人体轮廓所占像素点面积随步态周期呈周期性变化,根据人体轮廓所占像素点面积变化规律,从步骤S1.3处理得到的二值化行人轮廓图像序列中提取一个步态周期的二值化行人轮廓图像序列;行人左脚或右脚迈出到该左脚或右脚下一次迈出为一个步态周期;
步骤S1.5,GEI提取过程:
将步骤S1.4处理得到的一个步态周期的所有二值化行人轮廓图像,带入GEI计算公式,计算得到行人的步态能量图;
步骤S2,训练过程:
步骤S2.1,将步骤S1得到的GEI图像样本输入TripletLoss-DenseNet卷积神经网络,经过网络映射,输出为一维数组表示的特征向量,用以表示步态特征;
步骤S2.2,在步骤S2.1处理得到的特征向量中根据三元组选择方法,选择三元组对;
步骤S2.3,根据三元组损失计算公式,计算步骤S2.2得到的三元组对的损失值,并以损失函数值为目标优化步骤S2.1中的TripletLoss-DenseNet模型;
步骤S2.4,重复步骤S2.1至步骤S2.3直至TripletLoss-DenseNet CNN模型收敛;
步骤S3,识别过程;
步骤S3.1,将待识别的步态序列(即用于识别的一个测试步态序列)经过步骤S1获取其GEI;
步骤S3.2,将步骤S3.1获取的GEI作为TripletLoss-DenseNet网络的输入,通过网络计算,得到对应的特征向量;
步骤S3.3,通过对比步骤S3.2获取的待识别的步态特征向量与视频库中存档的特征向量,获取待识别步态序列的身份。
2.根据权利要求1所述的一种基于GEI和TripletLoss-DenseNet的步态识别方法,其特征在于:网络的输入图像是无噪声且对齐的。
3.根据权利要求1所述的一种基于GEI和TripletLoss-DenseNet的步态识别方法,其特征在于:每个训练样本经过网络映射得到的应该是一维数组表示的特征向量,且维度应限制在100维至200维之间。
4.根据权利要求1所述的一种基于GEI和TripletLoss-DenseNet的步态识别方法,其特征在于:训练时应设定合适的步长,且每步训练中,采样的人数和每人采样的GEI样本数需满足三元组选择的要求。
5.根据权利要求1所述的一种基于GEI和TripletLoss-DenseNet的步态识别方法,其特征在于:训练的步长根据每步训练采样的数据动态变化。
6.根据权利要求1所述的一种基于GEI和TripletLoss-DenseNet的步态识别方法,其特征在于:GEI计算公式:其中N和t分别代表一个步态周期中二值轮廓图像的个数,和当前二值轮廓图像在N张图像中的序号;S代表第t张二值图像在(x,y)坐标处的像素值。
7.根据权利要求1所述的一种基于GEI和TripletLoss-DenseNet的步态识别方法,其特征在于:三元组损失计算公式:其中为固定的样本图像,被称为锚点样本;称为正样本,它和来自同一身份;称为负样本,与来自不同身份;分别为映射后的特征向量;α是一个强制存在的用于区分正样本和负样本的常量;n是训练集中所有可能的三元组的组数总和。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810518121.3A CN108921019B (zh) | 2018-05-27 | 2018-05-27 | 一种基于GEI和TripletLoss-DenseNet的步态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810518121.3A CN108921019B (zh) | 2018-05-27 | 2018-05-27 | 一种基于GEI和TripletLoss-DenseNet的步态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108921019A true CN108921019A (zh) | 2018-11-30 |
CN108921019B CN108921019B (zh) | 2022-03-08 |
Family
ID=64410664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810518121.3A Active CN108921019B (zh) | 2018-05-27 | 2018-05-27 | 一种基于GEI和TripletLoss-DenseNet的步态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108921019B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815874A (zh) * | 2019-01-17 | 2019-05-28 | 苏州科达科技股份有限公司 | 一种人员身份识别方法、装置、设备及可读存储介质 |
CN109902623A (zh) * | 2019-02-27 | 2019-06-18 | 浙江大学 | 一种基于感知压缩的步态识别方法 |
CN109934158A (zh) * | 2019-03-11 | 2019-06-25 | 合肥工业大学 | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 |
CN110222599A (zh) * | 2019-05-21 | 2019-09-10 | 西安理工大学 | 一种基于高斯映射的步态识别方法 |
CN110969087A (zh) * | 2019-10-31 | 2020-04-07 | 浙江省北大信息技术高等研究院 | 一种步态识别方法及系统 |
CN111476077A (zh) * | 2020-01-07 | 2020-07-31 | 重庆邮电大学 | 一种基于深度学习的多视角步态识别方法 |
CN111814624A (zh) * | 2020-06-28 | 2020-10-23 | 浙江大华技术股份有限公司 | 视频中行人步态识别训练方法、步态识别方法及存储装置 |
CN111985332A (zh) * | 2020-07-20 | 2020-11-24 | 浙江工业大学 | 一种基于深度学习的改进损失函数的步态识别方法 |
CN112132873A (zh) * | 2020-09-24 | 2020-12-25 | 天津锋物科技有限公司 | 一种基于计算机视觉的多镜头行人识别与跟踪 |
CN112232224A (zh) * | 2020-10-19 | 2021-01-15 | 西安建筑科技大学 | 一种lstm与cnn相结合的跨视角步态识别方法 |
CN112818808A (zh) * | 2021-01-27 | 2021-05-18 | 南京大学 | 一种结合两个向量嵌入空间的高精度步态识别方法 |
CN112910813A (zh) * | 2021-04-10 | 2021-06-04 | 青岛科技大学 | 基于lda-knn的水声信号自动调制识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426645A (zh) * | 2011-08-30 | 2012-04-25 | 北京航空航天大学 | 一种多视角多状态的步态识别方法 |
CN104299012A (zh) * | 2014-10-28 | 2015-01-21 | 中国科学院自动化研究所 | 一种基于深度学习的步态识别方法 |
CN105574510A (zh) * | 2015-12-18 | 2016-05-11 | 北京邮电大学 | 一种步态识别方法及装置 |
CN106096538A (zh) * | 2016-06-08 | 2016-11-09 | 中国科学院自动化研究所 | 基于定序神经网络模型的人脸识别方法及装置 |
CN106250555A (zh) * | 2016-08-15 | 2016-12-21 | 东方网力科技股份有限公司 | 基于大数据的车辆检索方法及装置 |
CN107679078A (zh) * | 2017-08-29 | 2018-02-09 | 银江股份有限公司 | 一种基于深度学习的卡口图像车辆快速检索方法及系统 |
-
2018
- 2018-05-27 CN CN201810518121.3A patent/CN108921019B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426645A (zh) * | 2011-08-30 | 2012-04-25 | 北京航空航天大学 | 一种多视角多状态的步态识别方法 |
CN104299012A (zh) * | 2014-10-28 | 2015-01-21 | 中国科学院自动化研究所 | 一种基于深度学习的步态识别方法 |
CN105574510A (zh) * | 2015-12-18 | 2016-05-11 | 北京邮电大学 | 一种步态识别方法及装置 |
CN106096538A (zh) * | 2016-06-08 | 2016-11-09 | 中国科学院自动化研究所 | 基于定序神经网络模型的人脸识别方法及装置 |
CN106250555A (zh) * | 2016-08-15 | 2016-12-21 | 东方网力科技股份有限公司 | 基于大数据的车辆检索方法及装置 |
CN107679078A (zh) * | 2017-08-29 | 2018-02-09 | 银江股份有限公司 | 一种基于深度学习的卡口图像车辆快速检索方法及系统 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815874A (zh) * | 2019-01-17 | 2019-05-28 | 苏州科达科技股份有限公司 | 一种人员身份识别方法、装置、设备及可读存储介质 |
CN109902623A (zh) * | 2019-02-27 | 2019-06-18 | 浙江大学 | 一种基于感知压缩的步态识别方法 |
CN109934158A (zh) * | 2019-03-11 | 2019-06-25 | 合肥工业大学 | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 |
CN109934158B (zh) * | 2019-03-11 | 2020-03-17 | 合肥工业大学 | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 |
CN110222599B (zh) * | 2019-05-21 | 2021-09-10 | 西安理工大学 | 一种基于高斯映射的步态识别方法 |
CN110222599A (zh) * | 2019-05-21 | 2019-09-10 | 西安理工大学 | 一种基于高斯映射的步态识别方法 |
CN110969087A (zh) * | 2019-10-31 | 2020-04-07 | 浙江省北大信息技术高等研究院 | 一种步态识别方法及系统 |
CN110969087B (zh) * | 2019-10-31 | 2023-11-21 | 杭州未名信科科技有限公司 | 一种步态识别方法及系统 |
CN111476077A (zh) * | 2020-01-07 | 2020-07-31 | 重庆邮电大学 | 一种基于深度学习的多视角步态识别方法 |
CN111814624A (zh) * | 2020-06-28 | 2020-10-23 | 浙江大华技术股份有限公司 | 视频中行人步态识别训练方法、步态识别方法及存储装置 |
CN111985332A (zh) * | 2020-07-20 | 2020-11-24 | 浙江工业大学 | 一种基于深度学习的改进损失函数的步态识别方法 |
CN111985332B (zh) * | 2020-07-20 | 2024-05-10 | 浙江工业大学 | 一种基于深度学习的改进损失函数的步态识别方法 |
CN112132873A (zh) * | 2020-09-24 | 2020-12-25 | 天津锋物科技有限公司 | 一种基于计算机视觉的多镜头行人识别与跟踪 |
CN112232224A (zh) * | 2020-10-19 | 2021-01-15 | 西安建筑科技大学 | 一种lstm与cnn相结合的跨视角步态识别方法 |
CN112818808A (zh) * | 2021-01-27 | 2021-05-18 | 南京大学 | 一种结合两个向量嵌入空间的高精度步态识别方法 |
CN112818808B (zh) * | 2021-01-27 | 2024-01-19 | 南京大学 | 一种结合两个向量嵌入空间的高精度步态识别方法 |
CN112910813A (zh) * | 2021-04-10 | 2021-06-04 | 青岛科技大学 | 基于lda-knn的水声信号自动调制识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108921019B (zh) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921019A (zh) | 一种基于GEI和TripletLoss-DenseNet的步态识别方法 | |
US11195051B2 (en) | Method for person re-identification based on deep model with multi-loss fusion training strategy | |
CN107886064B (zh) | 一种基于卷积神经网络的人脸识别场景适应的方法 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN108520216B (zh) | 一种基于步态图像的身份识别方法 | |
CN104866810B (zh) | 一种深度卷积神经网络的人脸识别方法 | |
CN110348399B (zh) | 基于原型学习机制和多维残差网络的高光谱智能分类方法 | |
CN112052886A (zh) | 基于卷积神经网络的人体动作姿态智能估计方法及装置 | |
CN108427921A (zh) | 一种基于卷积神经网络的人脸识别方法 | |
CN108268859A (zh) | 一种基于深度学习的人脸表情识别方法 | |
CN106651830A (zh) | 一种基于并行卷积神经网络的图像质量测试方法 | |
CN106548159A (zh) | 基于全卷积神经网络的网纹人脸图像识别方法与装置 | |
CN106372581A (zh) | 构建及训练人脸识别特征提取网络的方法 | |
CN105095870A (zh) | 基于迁移学习的行人重识别方法 | |
CN106909938B (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
CN106599994A (zh) | 一种基于深度回归网络的视线估计方法 | |
CN110472495B (zh) | 一种基于图形推理全局特征的深度学习人脸识别方法 | |
CN108171318A (zh) | 一种基于模拟退火—高斯函数的卷积神经网络集成方法 | |
CN110334656A (zh) | 基于信源概率加权的多源遥感图像水体提取方法及装置 | |
CN109344856B (zh) | 一种基于多层判别式特征学习的脱机签名鉴别方法 | |
CN106778489A (zh) | 人脸3d特征身份信息库的建立方法及设备 | |
CN112560710B (zh) | 一种用于构建指静脉识别系统的方法及指静脉识别系统 | |
CN110880010A (zh) | 基于卷积神经网络的视觉slam闭环检测算法 | |
CN106611156B (zh) | 一种自适应深度空间特征的行人识别方法和系统 | |
CN111985332A (zh) | 一种基于深度学习的改进损失函数的步态识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |