CN113111797B - 一种结合自编码器与视角变换模型的跨视角步态识别方法 - Google Patents
一种结合自编码器与视角变换模型的跨视角步态识别方法 Download PDFInfo
- Publication number
- CN113111797B CN113111797B CN202110417595.0A CN202110417595A CN113111797B CN 113111797 B CN113111797 B CN 113111797B CN 202110417595 A CN202110417595 A CN 202110417595A CN 113111797 B CN113111797 B CN 113111797B
- Authority
- CN
- China
- Prior art keywords
- gait
- view
- encoder
- visual angle
- inputting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005021 gait Effects 0.000 title claims abstract description 194
- 230000009466 transformation Effects 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000000007 visual effect Effects 0.000 claims abstract description 64
- 238000010586 diagram Methods 0.000 claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 29
- 239000013598 vector Substances 0.000 claims abstract description 21
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 16
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明结合自编码器与视角变换模型的跨视角步态识别方法:采集多视角多携带物状态的步态数据集;训练得到去携带物编码器和视角判别器;将待测目标在多个观测视角下的步态能量图输入编码器得到纯步态特征,将步态特征拼接为步态特征矩阵,通过奇异值分解得到角度变换与身份信息向量;通过带有身份标签的步态组输入卷积神经网络中进行识别,得到识别模型;将待识别目标的步态能量图输入自编码器与观测视角判别器,得到无携带物步态能量图与观测视角信息,一同输入视角投影模型并转换至对比视角下,与在对比视角下来自不同目标的步态能量图依次组成步态能量图组,输入识别模型,取得分最高组合为识别结果,完成识别。
Description
技术领域
本发明属于图像分类技术领域,主要涉及行人识别技术领域,具体是一种结合自编码器与视角变换模型的跨视角步态识别方法。
背景技术
将人体的步态特征应用于人体身份识别,一方面可以有效应用于目前已大范围普及的视频监控系统,且对摄像设备的素质没有太高的要求。另一方面,当前广泛应用的基于人脸、指纹、虹膜等生物特征的识别技术存在应用局限性,即需要被观测者的配合,而步态识别可以在远距离、非接触的情况下完成识别,使得步态识别成为远距离生物识别最具潜力的生物特征。
在当前的步态识别研究中,被观测者通常会穿着不同样式的衣物,或携带不同样式的携带物,这些协变量的存在会对步态识别造成较大的影响。同时,一个人的步态轮廓会随着观测视角的改变而发生较大的变化,这也是步态识别的一大难点。因此,如何设计一种能够有效剥离携带物影响并实现较好的跨视角步态识别性能的方法是一个重要的研究方向。
当前的步态特征主要可以分为步态能量图、时序步态图、步态流图等,其中使用最广泛的为步态能量图,其包含了人体在一个完整步态周期中的运动区域,在空间上是归一化的能量图,在时间上是一个运动周期的归一化累积能量图,同时具有提取简单、噪声鲁棒等特点。
自编码器(AutoEncoder,AE)是一种能够通过半监督或无监督学习,学到输入数据高效表示的人工神经网络。输入数据的这一高效表示称为编码,其维度一般远小于输入数据,使得自编码器可用于降维。更重要的是,自编码器可作为强大的特征检测器,应用于深度神经网络的预训练。
视角变换模型(View Transformation Model,VTM)使用多视角的步态特征构建了一个通用的转换规则,用来将某一角度下的步态特征转换到目标视角下的步态特征,该方法主要通过奇异值分解来求取角度变换向量和身份信息向量,目标视角下的步态特征由目标视角的角度变换向量乘以对应目标的身份信息向量得到。
基于自编码器与视角变换模型的上述特点,本发明提出一种结合自编码器与视角变换模型的跨视角步态识别方法。
发明内容
针对上述现状,本发明提供了一种结合自编码器与视角变换模型的跨视角步态识别方法,其通过将一个步态周期的二值人体轮廓图转换为步态能量图,然后将步态能量图输入具有移除携带物影响的自编码器以获得纯粹步态特征的步态能量图,同时视角判别器从输入步态能量图中获得观察视角信息,视角变换模型将无携带物步态能量图投影至标准对比视角下,最后将对比视角下的步态能量图放入卷积神经网络中进行目标识别。
本发明采取如下技术方案:
一种结合自编码器与视角变换模型的跨视角步态识别方法,按如下步骤进行:
S1、采集多视角多携带物状态的步态数据集,获取不同视角和不同携带物状态的步态能量图;
S2、将有携带物的步态能量图输入基于卷积神经网络的编码器,以同视角下无携带物的步态能量图为监督样本训练得到去携带物编码器,将标记有观测视角信息的步态能量图输入基于卷积神经网络的视角判别器进行判别训练,得到视角判别器;
S3、将待测目标在多个观测视角下的步态能量图输入步骤S2中训练得到的编码器得到纯步态特征,将步态特征拼接为步态特征矩阵,通过奇异值分解以得到角度变换向量与身份信息向量;
S4、引入Siamese结构的卷积神经网络,将带有身份标签的步态组输入卷积神经网络中进行识别训练,得到识别模型;
S5、将待识别目标的步态能量图输入自编码器与观测视角判别器,得到无携带物步态能量图与观测视角信息,将二者一同输入视角投影模型并转换至对比视角下,与在对比视角下来自不同目标的步态能量图依次组合成步态能量图组,输入步骤S4中的识别模型,取得分最高的组合为识别结果,完成跨视角步态识别。
本发明技术方案有效地实现了有携带物状态下的跨视角步态识别。
作为优选方案,步骤S1包括:
对多视角步态视频数据进行帧级分解,并对各帧使用分割算法,将行人轮廓与背景环境分解得到黑白二值图。然后识别人体轮廓进行裁剪,并将一个步态周期的人体轮廓图进行空间与时间归一化,以得到步态能量图GEI:
其中,N为一个步态周期的轮廓图样本数量,Xt为t时刻的步态轮廓图像。并对每一个步态能量图设置相应的样本标签、携带物标签和观测视角标签。
作为优选方案,步骤S2包括:
对于观测视角判别器的训练为,将带有观测视角标签的步态数据集输入基于11个视角区域进行划分的视角判别器,判别器输出判别视角编号,通过降低交叉熵损失以达到对判别器的训练效果。
对于具有移除携带物影响能力的自编码器的训练过程,包括以下步骤:
(1)首先假设训练集中每一个存在携带物的样本X都同时存在一个无携带物的模板样本X0。给定基于卷积神经网络的编码器E与解码器D,其中编码器E可以将输入样本的特征划分为一维的步态特征gp与携带物特征gc,解码器可以将两部分特征结合重构为输入样本X′:
(gp,gc)=E(X)
X′=D(gp,gc)
(2)创造一个与经过编码器E划分的携带物特征等大小的零填充特征g0,将零填充特征与步态特征输入解码器D以生成无携带物步态样本,与无携带物模板样本一起制作无携带物重构损失X′0:
X′0=D(gp,g0)
(3)有携带物重构损失与无携带物重构损失由计算两个步态能量图的欧式距离得到,将两个重构损失结合起来组成联合损失方程:
通过最小化Lreconst,确保解开的gp和gc分别仅包括输入样本的步态特征和携带物特征,并且定义的零填充g0表示不存在协变量,通过这种半监督的方式,确保了所提出自编码器学习到了去携带物特性。
作为优选方案,步骤S3中,所述视角变换模型的原理如下:
将训练数据集中受试者的所有观测视角下的无携带物模板样本依次输入步骤S2中训练得到的去携带物编码器,提取其中的一维步态特征fg,按次序填充步态特征矩阵它有K行M列,代表着K个观察视角和M个对象,其中,/>表示第1个对象在第K个角度下的步态特征,步态特征矩阵如下所示:
得到步态特征矩阵后,对它进行奇异值分解得到角度变换向量P=[P1 ... ...PN]T=US与身份信息向量V:
视角变换的过程如下:
其中,表示第m个目标在第i个观测视角下的步态特征,其中Pi代表第i个观测视角的角度变换向量,/>表示Pi的伪逆。vm表示第m个目标的身份信息,可由/>与/>的积得到。目标角度步态特征可通过Pj与vm的乘积得到,该式表明通过角度变换向量P与身份信息向量V,可从任意第m个对象的任意角度i的特征转换到角度j的特征。
作为优选方案,步骤S4中,识别网络使用基于Siamese结构的卷积神经网络,交替输入来自同一目标的步态能量图组和来自不同目标的步态能量图组结合预先打好的判别标签以训练网络的识别能力。
作为优选方案,所述输入步态能量图尺寸均为128×128。
作为优选方案,所述编码器与视角判别器的第一卷积层的卷积核大小为3×3、通道数为32。
作为优选方案,所述编码器与视角判别器的卷积神经网络结构从第二层至第六卷积层均使用Inception网络结构。
作为优选方案,所述编码器与视角判别器第二卷积层至第六卷积层的通道数依次增大。
作为优选方案,所述编码器与视角判别器的第七卷积层的卷积层大小为4×4,通道数为256。
本发明实现了跨视角步态识别的目的,有效降低了携带物对步态识别的影响。
附图说明
图1是本发明实施例结合自编码器与视角变换矩阵的跨视角步态识别方法的流程图;
图2是本发明实施例的编码器与解码器结构图;
图3是本发明实施例的识别网络结构图;
图4是本发明实施例的具有携带物的步态能量图;
图5是本发明实施例的经过编解码器去携带物的步态能量图与视角变换后的步态能量图。
具体实施方式
以下通过优选实施例对本发明的技术方案作进一步解释说明。
如图1所示,本发明实施例结合自编码器与视角变换矩阵的跨视角步态识别方法,包括以下步骤:
S1、对多视角步态视频数据进行帧级分解,并对各帧使用分割算法,将行人轮廓与背景环境分解得到黑白二值图。然后识别人体轮廓进行裁剪,并将一个步态周期的人体轮廓图进行空间与时间归一化,以得到步态能量图(GEI):
其中,N为一个步态周期的轮廓图样本数量,Xt为t时刻的步态轮廓图像。并对每一个步态能量图设置相应的样本标签、携带物标签和观测视角标签。
S2、使用训练集中的各状态步态能量图训练观测视角判别器与去携带物自编码器:
对于观测视角判别器的训练为,将带有观测视角标签的步态数据集输入基于11个视角区域进行划分的视角判别器,判别器输出判别视角编号,对比真实视角信息计算交叉熵损失,通过降低交叉熵损失以达到对判别器的训练效果。
对于具有移除携带物影响能力的自编码器的训练过程,包括以下步骤:
(1)首先假设训练集中每一个存在携带物的样本X都同时存在一个无携带物的模板样本X0。给定基于卷积神经网络的编码器E与解码器D,其中编码器E可以将输入样本的特征划分为一维的步态特征gp与携带物特征gc,解码器可以将两部分特征结合重构为输入样本X′:
(gp,gc)=E(X)
X′=D(gp,gc)
(2)创造一个与经过编码器E划分的携带物特征等大小的零填充特征g0,将零填充特征g0与步态特征gp同时输入解码器D以生成无携带物步态样本,与无携带物模板样本一起制作无携带物重构损失X′0:
X′0=D(gp,g0)
(3)有携带物重构损失与无携带物重构损失由计算两个步态能量图的欧式距离得到,将两个重构损失结合起来组成联合损失方程:
通过最小化Lreconst,确保解开的gp和gc分别仅包括输入样本的步态特征和携带物特征。
S3、将步态能量图训练集中受试者的所有观测视角下的无携带物模板样本依次输入在步骤S2中训练得到的去携带物编码器,提取其中的一维步态特征fg,按次序填充步态特征矩阵它有K行M列,代表着K个观察视角和M个对象,其中,/>表示第1个对象在第K个角度下的步态特征,步态特征矩阵如下所示:
在得到步态特征矩阵后,对它进行奇异值分解得到角度变换向量P=[P1 ... ...PN]T=US与身份信息向量V:
视角变换的过程如下:
其中,表示第m个目标在第i个观测视角下的步态特征,其中Pi代表第i个观测视角的角度变换向量,/>表示Pi的伪逆。vm表示第m个目标的身份信息,可由/>与/>的积得到。目标角度步态特征可通过Pj与vm的乘积得到,该式表明通过角度变换向量P与身份信息向量V,可从任意第m个对象的任意角度i的特征转换到角度j的特征。
保存角度变换向量P与身份信息向量V。
S4、识别网络使用基于Siamese结构的卷积神经网络,交替输入来自同一目标的步态能量图组和来自不同目标的步态能量图组,来自同一目标的步态能量图组打上标签1,来自不同目标的步态能量组打上标签0,求网络输出的判别标签与标签真值之间的交叉熵损失值,通过降低交叉熵损失来训练网络的识别能力。
S5、将待识别目标的步态能量图输入自编码器与观测视角判别器,得到无携带物步态能量图与观测视角信息,将二者一同输入视角投影模型并转换至对比视角下,与在对比视角下来自不同目标的步态能量图依次组合成步态能量图组,输入步骤S4中的识别网络,取得分最高的组合为识别结果,完成跨视角步态识别任务。
当前进行多视角多携带物状态下的步态识别研究中使用的步态数据集都是CASIA-B步态数据集。CASIA-B步态数据集由中国科学院自动化所录制,该数据集采集了0-180度共11个视角和正常(NM)、背包(BG)、穿外套(CL)等三种携带状态,共有124个样本。
将步态轮廓图进行预处理,将处于不同空间位置与不同大小的人体轮廓调整为一致大小,并以人体中心点为基点对齐,制作步态能量图,并为得到的步态能量图数据集中的图片打上相应的样本标签、携带物标签和观测视角标签。步态能量图实例,如图4所示。
自编码器的网络结构如图5所示,其中编码器网络结构包括依次接的第一卷积层、第二卷积层、最大池化层、…、最大池化层、第五卷积层和第六卷积层,其中除第一与第六卷积层外,其余卷积层均采用Inception网络结构,在第二卷积层至第四卷积层均配置最大池化层,第一卷积层的卷积核大小为3×3,通道数为32,且第二卷积层至第五卷积层的通道数依次增大,为64、128、256、512、1024,等第二卷积层至第六卷积层的卷积核大小为4×4,通道数为256。
本发明结合自编码器与视角变换模型的跨视角步态识别方法,涉及行人识别技术领域,其使得在多角度下对行人的再识别能力得以提高。其技术方案实现过程是:对多视角步态视频数据进行帧级分解,并对各帧使用分割算法,将行人轮廓与背景环境分解得到黑白二值图。然后识别人体轮廓进行裁剪,并将一个步态周期的人体轮廓图进行空间与时间归一化,以得到步态能量图,经过自编码器对步态能量图进行去携带物处理,再通过使用视角变换模型中的角度变换向量将步态能量图观测视角变换至对比视角下,将对比视角下的步态能量图与参考集(gallery)的步态能量图进行组合输入卷积神经网络中分类,最终实现跨视角步态识别的目的,有效降低了携带物对步态识别的影响。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。
Claims (10)
1.一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,包括以下步骤:
S1、采集多视角多携带物状态的步态数据集,获取不同视角和不同携带物状态的步态能量图;
S2、将有携带物的步态能量图输入基于卷积神经网络的编码器,以同视角下无携带物的步态能量图为监督样本训练得到去携带物编码器,将标记有观测视角信息的步态能量图输入基于卷积神经网络的视角判别器进行判别训练,得到视角判别器;
S3、将待测目标在多个观测视角下的步态能量图输入步骤S2中训练得到的编码器得到纯步态特征,将步态特征拼接为步态特征矩阵,通过奇异值分解以得到角度变换向量与身份信息向量;
S4、引入Siamese结构的卷积神经网络,将带有身份标签的步态组输入卷积神经网络中进行识别训练,得到识别模型;
S5、将待识别目标的步态能量图输入自编码器与观测视角判别器,得到无携带物步态能量图与观测视角信息,将二者一同输入视角投影模型并转换至对比视角下,与在对比视角下来自不同目标的步态能量图依次组合成步态能量图组,输入步骤S4中的识别模型,取得分最高的组合为识别结果,完成跨视角步态识别。
2.如权利要求1所述的一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,步骤S1具体包括:
对多视角步态视频数据进行帧级分解,并对各帧使用分割算法,将行人轮廓与背景环境分解得到黑白二值图;然后识别人体轮廓进行裁剪,并将一个步态周期的人体轮廓图进行空间与时间归一化,以得到步态能量图GEI:
其中,N为一个步态周期的轮廓图样本数量,Xt为t时刻的步态轮廓图像;并对每一个步态能量图设置相应的样本标签、携带物标签和观测视角标签。
3.如权利要求2所述的一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,步骤S2具体包括:
对于观测视角判别器的训练过程:将带有观测视角标签的步态数据集输入基于11个视角区域进行划分的视角判别器,判别器输出判别视角编号;
对于具有移除携带物影响能力的自编码器的训练过程,包括以下步骤:
(1)首先假设训练集中每一个存在携带物的样本X都同时存在一个无携带物的模板样本X0;给定基于卷积神经网络的编码器E与解码器D,其中,编码器E可将输入样本的特征划分为一维的步态特征gp与携带物特征gc,解码器可将两部分特征结合重构为输入样本X′:
(gp,gc)=E(X)
X′=D(gp,gc)
(2)创造一个与经过编码器E划分的携带物特征等大小的零填充特征g0,将零填充特征g0与步态特征gp同时输入解码器D以生成无携带物步态样本,与无携带物模板样本一起制作无携带物重构损失X′0:
X′0=D(gp,g0)
(3)有携带物重构损失与无携带物重构损失由计算两个步态能量图的欧式距离得到,将两个重构损失结合起来组成联合损失方程:
通过最小化Lreconst,确保解开的gp和gc分别仅包括输入样本的步态特征和携带物特征。
4.如权利要求3所述的一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,步骤S3中,所述视角变换模型制作过程如下:
将训练数据集中受试者的所有观测视角下的无携带物模板样本依次输入步骤S2中训练得到的去携带物编码器,提取其中的一维步态特征fg,按次序填充步态特征矩阵有K行M列,代表K个观察视角和M个对象,其中,/>表示第1个对象在第K个角度下的步态特征,步态特征矩阵如下所示:
得到步态特征矩阵后,进行奇异值分解得到角度变换向量P=[P1......PN]T=US与身份信息向量V:
视角变换的过程如下:
其中,表示第m个目标在第i个观测视角下的步态特征,其中,Pi代表第i个观测视角的角度变换向量,/>表示Pi的伪逆;vm表示第m个目标的身份信息,由/>与/>的积得到;目标角度步态特征通过Pj与vm的乘积得到。
5.如权利要求4所述的一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,步骤S4中,识别网络使用基于Siamese结构的卷积神经网络,交替输入来自同一目标的步态能量图组和来自不同目标的步态能量图组结合预先打好的判别标签。
6.如权利要求1-5任一项所述的一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,所述输入步态能量图尺寸均为128×128。
7.如权利要求1-5任一项所述的一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,所述编码器与视角判别器的第一卷积层的卷积核大小为3×3、通道数为32。
8.如权利要求6所述的结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,所述编码器与视角判别器的卷积神经网络结构从第二卷积层至第六卷积层均使用Inception网络结构。
9.如权利要求1-5任一项所述的一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,所述编码器与视角判别器第二卷积层至第六卷积层的通道数依次增大。
10.如权利要求9所述的一种结合自编码器与视角变换模型的跨视角步态识别方法,其特征在于,所述编码器与视角判别器的第七卷积层的卷积层大小为4×4,通道数为256。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110417595.0A CN113111797B (zh) | 2021-04-19 | 2021-04-19 | 一种结合自编码器与视角变换模型的跨视角步态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110417595.0A CN113111797B (zh) | 2021-04-19 | 2021-04-19 | 一种结合自编码器与视角变换模型的跨视角步态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113111797A CN113111797A (zh) | 2021-07-13 |
CN113111797B true CN113111797B (zh) | 2024-02-13 |
Family
ID=76718705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110417595.0A Active CN113111797B (zh) | 2021-04-19 | 2021-04-19 | 一种结合自编码器与视角变换模型的跨视角步态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111797B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113569872B (zh) * | 2021-08-10 | 2024-03-19 | 大连海事大学 | 一种基于压力显著性的多分辨穿鞋足迹序列识别方法 |
CN114882288B (zh) * | 2022-05-25 | 2023-06-06 | 江苏大学 | 基于分层图增强堆叠自编码器的多视图图像分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107085716A (zh) * | 2017-05-24 | 2017-08-22 | 复旦大学 | 基于多任务生成对抗网络的跨视角步态识别方法 |
CN110097029A (zh) * | 2019-05-14 | 2019-08-06 | 西安电子科技大学 | 基于Highway网络多视角步态识别的身份认证方法 |
CN112163487A (zh) * | 2020-09-21 | 2021-01-01 | 浙江师范大学 | 一种基于改进时空步态能量图的步态身份识别方法 |
CN112580445A (zh) * | 2020-12-03 | 2021-03-30 | 电子科技大学 | 基于生成对抗网络的人体步态图像视角转化方法 |
-
2021
- 2021-04-19 CN CN202110417595.0A patent/CN113111797B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107085716A (zh) * | 2017-05-24 | 2017-08-22 | 复旦大学 | 基于多任务生成对抗网络的跨视角步态识别方法 |
CN110097029A (zh) * | 2019-05-14 | 2019-08-06 | 西安电子科技大学 | 基于Highway网络多视角步态识别的身份认证方法 |
CN112163487A (zh) * | 2020-09-21 | 2021-01-01 | 浙江师范大学 | 一种基于改进时空步态能量图的步态身份识别方法 |
CN112580445A (zh) * | 2020-12-03 | 2021-03-30 | 电子科技大学 | 基于生成对抗网络的人体步态图像视角转化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113111797A (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084156B (zh) | 一种步态特征提取方法及基于步态特征的行人身份识别方法 | |
CN107679491B (zh) | 一种融合多模态数据的3d卷积神经网络手语识别方法 | |
Kim et al. | Deep generative-contrastive networks for facial expression recognition | |
CN108520216B (zh) | 一种基于步态图像的身份识别方法 | |
Ou et al. | Automatic facial expression recognition using Gabor filter and expression analysis | |
Kasim et al. | Batik classification with artificial neural network based on texture-shape feature of main ornament | |
CN105718889B (zh) | 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法 | |
CN113111797B (zh) | 一种结合自编码器与视角变换模型的跨视角步态识别方法 | |
CN108805140B (zh) | 一种基于lbp的特征快速提取方法及人脸识别系统 | |
CN105046272B (zh) | 一种基于简洁非监督式卷积网络的图像分类方法 | |
CN104077742B (zh) | 基于Gabor特征的人脸素描合成方法及系统 | |
CN112418041A (zh) | 一种基于人脸正面化的多姿态人脸识别方法 | |
CN114387641A (zh) | 基于多尺度卷积网络和ViT的虚假视频检测方法及系统 | |
Suja et al. | Analysis of emotion recognition from facial expressions using spatial and transform domain methods | |
CN111968124A (zh) | 基于半监督语义分割的肩部肌骨超声结构分割方法 | |
CN115439884A (zh) | 一种基于双分支自注意力网络的行人属性识别方法 | |
CN110188646B (zh) | 基于梯度方向直方图与局部二值模式融合的人耳识别方法 | |
Pham et al. | Personal identification based on deep learning technique using facial images for intelligent surveillance systems | |
Passos et al. | Real-time deep-learning-based system for facial recognition | |
Nimbarte et al. | Biased face patching approach for age invariant face recognition using convolutional neural network | |
Özyurt et al. | A new method for classification of images using convolutional neural network based on Dwt-Svd perceptual hash function | |
Hassan et al. | Enhanced dynamic sign language recognition using slowfast networks | |
Liu et al. | Two-Channel feature extraction convolutional neural network for facial expression recognition | |
CN115601791A (zh) | 基于Multiformer及离群样本重分配的无监督行人重识别方法 | |
Guzzi et al. | Distillation of a CNN for a high accuracy mobile face recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |