CN111639580A - 一种结合特征分离模型和视角转换模型的步态识别方法 - Google Patents
一种结合特征分离模型和视角转换模型的步态识别方法 Download PDFInfo
- Publication number
- CN111639580A CN111639580A CN202010452373.8A CN202010452373A CN111639580A CN 111639580 A CN111639580 A CN 111639580A CN 202010452373 A CN202010452373 A CN 202010452373A CN 111639580 A CN111639580 A CN 111639580A
- Authority
- CN
- China
- Prior art keywords
- pictures
- gait
- visual angle
- picture
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种结合特征分离模型和视角转换模型的步态识别方法,该方法包括以下步骤:数据采集;训练基于特征分离模型和生成式对抗网络的视角转换器;训练视角判别器;训练步态识别器;测试与实际应用;本发明通过特征分离模型分离开外观特征和步态特征,使得在训练和实际应用中可以直接使用摄像机拍摄到的图像作为算法输入,而无需对图像进行语义分割等背景减法,有效降低了背景减法产生的误差;本发明通过视角转换降低了跨摄像头视角不同导致的识别误差;在测试时,本发明无需以步态模板或者连续视频序列作为输入,仅需要部分视频帧即可,且对是否连续没有要求。本发明提高了步态识别算法的鲁棒性。
Description
技术领域
本发明属于计算机视觉中的步态识别领域,具体涉及一种结合特征分离模型和视角转换模型的步态识别方法。
背景技术
步态作为一种生物特征,相较脸部,指纹和虹膜等其他生物特征有其独特性。一是步态信息可以远距离捕捉识别,二是步态信息难以长期伪装。故步态识别技术在安全防控、社会保障等领域具有广泛的应用前景。
现有的步态识别方法可以分为基于模板和基于序列两种。基于模板的方法首先通过背景减法取得每帧中的人体轮廓;然后基于人体轮廓生成不同行人的步态模板;接下来通过机器学习的方法获取步态特征并测量目标的步态模板与数据库中其他模板的相似度;最后通过分类器来判断目标模板的便签。基于序列的方法,与前一种方法相比,去除了生成步态模板的步骤,直接以一段帧序列作为输入,提取时序特征,也常采用循环神经网络作为特征提取的手段。
上述两种方法都是基于一段连续的完整的去除背景的人体轮廓图序列,这与实际应用中摄像机拍摄到的图像有很大区别:一是去除图像所有背景得到人体轮廓图耗时耗力且存在误差;二是摄像机拍摄的图片可能存在连续帧丢失情况;三是上述算法对视角十分敏感,摄像头视角变动就会影响算法精度。
发明内容
针对现有技术存在的技术缺陷,本发明提出一种结合特征分离模型和视角转换模型的步态识别方法。
本发明的目的是通过以下技术方案实现的:一种结合特征分离模型和视角转换模型的步态识别方法,该方法包括以下步骤:
(1)数据采集:通过若干不同角度摄像头采集行人的行走图像,为图像标注身份标签和视角标签;
(2)训练基于特征分离模型和生成式对抗网络的视角转换器;
所述视觉转换器包括依次连接的编码器E、视角转换层V、生成器G和判别器D;
所述视角转换器的输入是:从采集图片中随机选取n组训练样本x=[x1,x2,x3…,xn],用xi表示第i组图片,每组图片由两张同属于同一个人同一时段不同视角的图片组成,分别表示为其中α,β代表不同视角,记摄像头采集的全部视角数目为m;
(a)构建编码器E实现基于卷积神经网络的特征提取与分离:编码器E是由数层卷积层构成的神经网络,输入是单张图片;每张图片通过编码器得到两个特征向量和其中代表这张图片的外观纹理特征,代表这张图片的步态特征,即:E(xi)=vi,
(b)构建视角转换层V实现特征向量的视角转换:视角转换层V是一个全连接层,采用流形学习的方法来进行视角转换,从α角度到β角度的视角转换可以表述为:
vβg′=vαg+Heαβ
(c)通过生成式对抗网络的方式生成视角转换后的图片,以G代指生成器,D代指判别器,两者的作用是相互对抗学习以生成高质量的图片,具体地:
生成器G采用U-net网络,将α视角的图片通过编码和视角转换得到的特征向量vβg′,与步骤(a)中分别将两个视角图片输入编码器E得到的外观特征的均值输入生成器G,得到生成的β视角图片,记为 是两张图片外观特征的均值,代表他们共同的外观特征;
(d)视角转换器的目标函数如下:
它由三个损失函数组成,分别是逐像素损失L1、多任务对抗损失L2和外观特征相似度损失L3,γ1,,γ2是超参数,用来权衡三个损失之间的比重;
L1逐像素损失函数如下:
其中,Entropy代表交叉熵函数,E(xα)o代表α角度图片输入编码器后产生的外观特征,E(xα)g代表α角度图片输入编码器后产生的步态特征;
L2多任务对抗损失函数如下:
L3外观特征相似度损失函数如下:
(3)训练视角判别器:
视角判别器C由数层全卷积层接一个sofamax函数构成,目的是判断输入图片的角度编号;网络的输入是从步骤(2)的(a)步骤得到的特征向量,输出是不同视角的概率;
(4)训练步态识别器,包括:
(a)基于卷积神经网络的特征提取:从步骤(1)处理后的图片中随机选取n'组训练样本x=[x1,x2,x3…,xn']作为网络的训练集,用xi表示第i组图片;每组图片由若干张同一个行人同一角度下的图片组成,即xi=[xi,1,xi,2…xi,j],其中j为同一个人某个视角下的图片的数目;通过卷积神经网络E'可以得到一组特征向量vi,即:E'(xi)=vi,vi=[vi,1,vi,2…vi,j];
(c)通过三元组损失训练网络:三元组由三个元素构成:从训练数据集中随机选一个Anchor样本记为xA,然后再随机选取一个和Anchor属于同一类的Positive样本记为xP和不同类的Negative样本记为xN,由此构成一个Anchor,Positive,Negative三元组;
对应的目标函数:
其中+表示[]内的值大于零的时候,取该值为损失,小于零的时候,损失为零;当与之间的距离小于与之间的距离加最小间隔α时,[]内的值大于0,就会产生损失;当与之间的距离大于与之间的距离加最小间隔α时,[]内的值小于0,损失为0;
(5)测试与实际应用:对于一组步态图片Q,目标是在已标注了身份ID的图片库G中找到Q的身份,包括:
(a)视角判别:对于序列Q,通过训练好的视角判别器,判断其对应的特定角度;
(b)对序列G中的图片进行视角转换:将序列G中所有图片转换为步骤(a)中判断出的角度,得到序列G';
(c)将序列Q输入到步态识别器网络中生成多尺度特征,将这些特征连接起来形成最终的表示Fp;将序列G'中的每一个样本均输入步态识别器网络中生成多尺度特征,并将特征连接起来生成Fg;计算Fp与Fg之间的欧式距离,距离最接近的即为序列Q的身份ID。
进一步地,所述步骤(2)中,生成器和判别器互相训练,生成器的训练目的是生成出以假乱真的图片骗过判别器,而判别器的训练目的是判别出输入图片的真假。
进一步地,所述步骤(2)中,逐像素损失L1的目的是为了最小化伪图像和真实图像之间的像素级重建误差,外观特征相似度损失L3的目的是在分离步态特征和外观特征中保证同一个人在相同场景不同视角下的外观纹理特征相同。
进一步地,所述步骤(3)中,训练视角判别器的损失函数采用交叉熵损失:
本发明相对于现有技术的有益效果是:
本发明提出了一种结合特征分离模型和视角转换模型的步态识别方法。第一通过特征分离模型分离开外观特征和步态特征,这使得在训练和实际应用中,可以直接使用摄像机拍摄到的图像作为算法输入,而无需对图像进行语义分割等背景减法,有效降低了背景减法产生的误差。第二通过视角转换降低了跨摄像头视角不同导致的识别误差。第三在测试的时候,无需以步态模板或者连续视频序列作为输入,仅需要部分视频帧即可,且对是否连续没有要求。综上三点提高了步态识别算法的鲁棒性。
附图说明
图1是本发明实施例视角转换器网络结构图;
图2是本发明实施例步态识别器网络结构图;
图3是本发明实施例中测试和实际应用流程图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
本申请提出的一种结合特征分离模型和视角转换模型的步态识别方法,具体步骤如下:
步骤(1)数据采集:
通过固定架设的数个不同角度摄像头采集行人的行走图像,为图像标注身份标签和视角标签。
步骤(2)训练基于特征分离模型和生成式对抗网络的视角转换器:
视觉转换器包括依次连接的编码器E、视角转换层V、生成器G和判别器D,具体网络结构如图1所示;
整个视角转换器的输入是:从步骤(1)处理后的图片中随机选取n组训练样本x=[x1,x2,x3…,xn],用xi表示第i组图片,每组图片由两张同属于同一个人同一时段不同视角的图片组成,分别表示为其中α,β代表不同视角,记摄像头采集的全部视角数目为m。
(a)构建编码器E实现基于卷积神经网络的特征提取与分离:编码器E是由数层卷积层构成的神经网络,输入是单张图片。每张图片通过编码器得到两个特征向量和其中代表这张图片的外观纹理特征,代表这张图片的步态特征。同一个人在同一场景不同视角下的外观纹理特征和我们希望它们是相同的;步态特征和不同但是能够相互转换。即:E(xi)=vi,以此来实现特征的分离,外观特征用在之后的图像生成重构,步态特征用来识别一个人的身份。
(b)构建视角转换层V实现特征向量的视角转换:视角转换层V本质上是一个全连接层。采用流形学习的方法来进行视角转换。如果数据均匀采样于一个高维欧氏空间中的低维流形上,流形学习就是从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射以实现维数约简。依照流形学习,从α角度到β角度的视角转换可以表述为:
其中hk是从视角k到k+1的视角变换向量。
例如用11个摄像头采集0°到180°的步态图片,相邻摄像头之间相差18°,分别编号为角度1到角度11。那么36°的视角特征向量转换为90°就可以表述为:
vβg′=vαg+Heαβ
(c)通过生成式对抗网络的方式生成视角转换后的图片,以G代指生成器Generator,D代指判别器Discriminator。两者的作用是相互对抗学习,以生成高质量的图片。具体地:
生成器G采用U-net网络,将α视角的图片通过编码和视角转换得到的特征向量vβg′,与步骤(a)中分别将两个视角图片输入编码器E得到的外观特征的均值输入生成器G,得到生成的β视角图片,记为 是两张图片外观特征的均值,代表他们共同的外观特征;
生成器和判别器互相训练,生成器的训练目的是生成出以假乱真的图片骗过判别器,而判别器的训练目的是判别出输入图片的真假。
(d)目标函数:视角转换器的目标函数如下:
完整的各组件E,V,D,G目标函数如下:
它由三个损失函数组成,分别是逐像素损失L1、多任务对抗损失L2和外观相似度损失L3。γ1,,γ2是超参数,用来权衡三个损失之间的比重。
L1逐像素损失函数的目的是为了最小化伪图像和真实图像之间的像素级重建误差:
其中‖.‖1代表一级范数,Entropy代表交叉熵函数,E(xα)o代表α角度图片输入编码器后产生的外观特征,E(xα)g代表α角度图片输入编码器后产生的步态特征,mean()是平均数函数。
L2多任务对抗损失是生成式对抗网络中常用损失函数:
L3外观特征相似度损失的目的是在分离步态特征和外观特征中保证同一个人在相同场景不同视角下的外观纹理特征相同:
其中‖.‖2代表二级范数。
步骤(3)训练视角判别器:
在实际应用中,无法通过原始的摄像头数据直接确定人物的具体视角,故需要训练得到一个视角判别器来完成该目的。视角判别器用C表示,由数层全卷积层接一个sofamax函数构成,目的是判断输入图片的角度编号。网络的输入是从步骤(2)的(a)步骤得到的特征向量,输出是不同视角的概率,损失函数采用交叉熵损失:
步骤(4)训练步态识别器:
步态识别器的具体网络结构如图2所示;
(a)基于卷积神经网络的特征提取:从步骤(1)处理后的图片中随机选取n'组训练样本x=[x1,x2,x3…,xn']作为网络的训练集,用xi表示第i组图片。与步骤(2)不同,每组图片由若干张同一个行人同一角度下的图片组成,即xi=[xi,1,xi,2…xi,j],其中j为同一个人某个视角下的图片的数目。通过另一卷积神经网络E'可以得到一组特征向量vi,即:E'(xi)=vi,vi=[vi,1,vi,2…vi,j]。
(c)通过三元组损失训练网络:三元组由三个元素构成:从训练数据集中随机选一个样本,该样本称为Anchor,然后再随机选取一个和Anchor(记为xA)属于同一类的样本和不同类的样本,这两个样本分别称为Positive(记为xP)和Negative(记为xN),由此构成一个Anchor,Positive,Negative三元组。通过上述(a),(b)两步,得到对应的三元组特征向量和让和特征表达之间的距离尽可能小,而和的特征表达之间的距离尽可能大,并且要让与之间的距离和与之间的距离之间有一个最小间隔α。公式化的表示为:
对应的目标函数:
这里距离用欧式距离度量,+表示[]内的值大于零的时候,取该值为损失,小于零的时候,损失为零。当与之间的距离小于与之间的距离加最小间隔α时,[]内的值大于0,就会产生损失;当与之间的距离大于与之间的距离加最小间隔α时,[]内的值小于0,损失为0。
步骤(5)测试与实际应用:
测试和实际应用流程如图3所示。
对于一组步态图片Q,目标是在已标注了身份ID的图片库G中找到Q的身份。
(a)视角判别:对于序列Q,首先通过训练好的视角判别器,判断其对应的特定角度。
(b)对序列G中的图片进行视角转换:将序列G中所有图片转换为步骤(a)中判断出来的角度,得到序列G'。
(c)将序列Q输入到步态识别器网络中生成多尺度特征,将这些特征连接起来形成最终的表示Fp。然后将序列G'中的每一个样本都走一遍相同的流程,即输入步态识别器网络中生成多尺度特征,并将特征连接起来生成Fg。计算Fp与Fg之间的欧式距离,距离最接近的就是序列Q的身份ID。
以上所述仅是本发明优选的实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明构思的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明所保护范围内。
Claims (5)
1.一种结合特征分离模型和视角转换模型的步态识别方法,其特征在于,包括以下步骤:
(1)数据采集:通过若干不同角度摄像头采集行人的行走图像,为图像标注身份标签和视角标签;
(2)训练基于特征分离模型和生成式对抗网络的视角转换器;
所述视觉转换器包括依次连接的编码器E、视角转换层V、生成器G和判别器D。
所述视角转换器的输入是:从采集图片中随机选取n组训练样本x=[x1,x2,x3...,xn],用xi表示第i组图片,每组图片由两张同属于同一个人同一时段不同视角的图片组成,分别表示为其中α,β代表不同视角,记摄像头采集的全部视角数目为m。
(a)构建编码器E实现基于卷积神经网络的特征提取与分离:编码器E是由数层卷积层构成的神经网络,输入是单张图片;每张图片通过编码器得到两个特征向量和其中代表这张图片的外观纹理特征,代表这张图片的步态特征,即:
(b)构建视角转换层V实现特征向量的视角转换:视角转换层V是一个全连接层,采用流形学习的方法来进行视角转换,从α角度到β角度的视角转换可以表述为:
vβg′=vαg+Heαβ
(c)通过生成式对抗网络的方式生成视角转换后的图片,以G代指生成器,D代指判别器,两者的作用是相互对抗学习以生成高质量的图片,具体地:
生成器G采用U-net网络,将α视角的图片通过编码和视角转换得到的特征向量vβg′,与步骤(a)中分别将两个视角图片输入编码器E得到的外观特征的均值输入生成器G,得到生成的β视角图片,记为 是两张图片外观特征的均值,代表他们共同的外观特征;
(d)视角转换器的目标函数如下:
它由三个损失函数组成,分别是逐像素损失L1、多任务对抗损失L2和外观特征相似度损失L3,γ1,,γ2是超参数,用来权衡三个损失之间的比重;
L1逐像素损失函数如下:
其中,Entropy代表交叉熵函数,E(xα)o代表α角度图片输入编码器后产生的外观特征,E(xα)g代表α角度图片输入编码器后产生的步态特征;
L2多任务对抗损失函数如下:
L3外观特征相似度损失函数如下:
(3)训练视角判别器:
视角判别器C由数层全卷积层接一个sofamax函数构成,目的是判断输入图片的角度编号;网络的输入是从步骤(2)的(a)步骤得到的特征向量,输出是不同视角的概率。
(4)训练步态识别器,包括:
(a)基于卷积神经网络的特征提取:从步骤(1)处理后的图片中随机选取n′组训练样本x=[x1,x2,x3...,xn′]作为网络的训练集,用xi表示第i组图片;每组图片由若干张同一个行人同一角度下的图片组成,即xi=[xi,1,xi,2…xi,j],其中j为同一个人某个视角下的图片的数目;通过卷积神经网络E′可以得到一组特征向量vi,即:E′(xi)=vi,vi=[vi,1,vi, 2...vi,j];
(c)通过三元组损失训练网络:三元组由三个元素构成:从训练数据集中随机选一个Anchor样本记为xA,然后再随机选取一个和Anchor属于同一类的Positive样本记为xP和不同类的Negative样本记为xN,由此构成一个Anchor,Positive,Negative三元组;通过上述(a),(b)两步,得到对应的三元组特征向量和让和特征表达之间的距离尽可能小,而和的特征表达之间的距离尽可能大,并且要让与之间的距离和与之间的距离之间有一个最小间隔α,公式化的表示为:
对应的目标函数:
其中+表示[]内的值大于零的时候,取该值为损失,小于零的时候,损失为零;当与之间的距离小于与之间的距离加最小间隔α时,[]内的值大于0,就会产生损失;当与之间的距离大于与之间的距离加最小间隔α时,[]内的值小于0,损失为0;
(5)测试与实际应用:对于一组步态图片Q,目标是在已标注了身份ID的图片库G中找到Q的身份,包括:
(a)视角判别:对于序列Q,通过训练好的视角判别器,判断其对应的特定角度;
(b)对序列G中的图片进行视角转换:将序列G中所有图片转换为步骤(a)中判断出的角度,得到序列G′;
(c)将序列Q输入到步态识别器网络中生成多尺度特征,将这些特征连接起来形成最终的表示Fp;将序列G′中的每一个样本均输入步态识别器网络中生成多尺度特征,并将特征连接起来生成Fg;计算Fp与Fg之间的欧式距离,距离最接近的即为序列Q的身份ID。
3.根据权利要求1所述的一种结合特征分离模型和视角转换模型的步态识别方法,其特征在于,所述步骤(2)中,生成器和判别器互相训练,生成器的训练目的是生成出以假乱真的图片骗过判别器,而判别器的训练目的是判别出输入图片的真假。
4.根据权利要求1所述的一种结合特征分离模型和视角转换模型的步态识别方法,其特征在于,所述步骤(2)中,逐像素损失L1的目的是为了最小化伪图像和真实图像之间的像素级重建误差,外观特征相似度损失L3的目的是在分离步态特征和外观特征中保证同一个人在相同场景不同视角下的外观纹理特征相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010452373.8A CN111639580B (zh) | 2020-05-25 | 2020-05-25 | 一种结合特征分离模型和视角转换模型的步态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010452373.8A CN111639580B (zh) | 2020-05-25 | 2020-05-25 | 一种结合特征分离模型和视角转换模型的步态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111639580A true CN111639580A (zh) | 2020-09-08 |
CN111639580B CN111639580B (zh) | 2023-07-18 |
Family
ID=72330957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010452373.8A Active CN111639580B (zh) | 2020-05-25 | 2020-05-25 | 一种结合特征分离模型和视角转换模型的步态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639580B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070027A (zh) * | 2020-09-09 | 2020-12-11 | 腾讯科技(深圳)有限公司 | 网络训练、动作识别方法、装置、设备及存储介质 |
CN112487903A (zh) * | 2020-11-23 | 2021-03-12 | 中国信息通信科技集团有限公司 | 基于对抗网络的步态数据生成方法及设备 |
CN112633222A (zh) * | 2020-12-30 | 2021-04-09 | 民航成都电子技术有限责任公司 | 基于对抗网络的步态识别方法、装置、设备及介质 |
CN112990120A (zh) * | 2021-04-25 | 2021-06-18 | 昆明理工大学 | 一种利用相机风格分离域信息的跨域行人重识别方法 |
CN113762015A (zh) * | 2021-01-05 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种图像处理方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107085716A (zh) * | 2017-05-24 | 2017-08-22 | 复旦大学 | 基于多任务生成对抗网络的跨视角步态识别方法 |
CN109726654A (zh) * | 2018-12-19 | 2019-05-07 | 河海大学 | 一种基于生成对抗网络的步态识别方法 |
US20190147642A1 (en) * | 2017-11-15 | 2019-05-16 | Google Llc | Learning to reconstruct 3d shapes by rendering many 3d views |
CN109902646A (zh) * | 2019-03-08 | 2019-06-18 | 中南大学 | 一种基于长短时记忆网络的步态识别方法 |
-
2020
- 2020-05-25 CN CN202010452373.8A patent/CN111639580B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107085716A (zh) * | 2017-05-24 | 2017-08-22 | 复旦大学 | 基于多任务生成对抗网络的跨视角步态识别方法 |
US20190147642A1 (en) * | 2017-11-15 | 2019-05-16 | Google Llc | Learning to reconstruct 3d shapes by rendering many 3d views |
CN109726654A (zh) * | 2018-12-19 | 2019-05-07 | 河海大学 | 一种基于生成对抗网络的步态识别方法 |
CN109902646A (zh) * | 2019-03-08 | 2019-06-18 | 中南大学 | 一种基于长短时记忆网络的步态识别方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070027A (zh) * | 2020-09-09 | 2020-12-11 | 腾讯科技(深圳)有限公司 | 网络训练、动作识别方法、装置、设备及存储介质 |
CN112487903A (zh) * | 2020-11-23 | 2021-03-12 | 中国信息通信科技集团有限公司 | 基于对抗网络的步态数据生成方法及设备 |
CN112633222A (zh) * | 2020-12-30 | 2021-04-09 | 民航成都电子技术有限责任公司 | 基于对抗网络的步态识别方法、装置、设备及介质 |
CN113762015A (zh) * | 2021-01-05 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种图像处理方法和装置 |
CN112990120A (zh) * | 2021-04-25 | 2021-06-18 | 昆明理工大学 | 一种利用相机风格分离域信息的跨域行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111639580B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084156B (zh) | 一种步态特征提取方法及基于步态特征的行人身份识别方法 | |
CN111639580B (zh) | 一种结合特征分离模型和视角转换模型的步态识别方法 | |
CN111310731B (zh) | 基于人工智能的视频推荐方法、装置、设备及存储介质 | |
CN108520216B (zh) | 一种基于步态图像的身份识别方法 | |
JP5629803B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
JP4743823B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
CN113139479B (zh) | 一种基于光流和rgb模态对比学习的微表情识别方法及系统 | |
Chen et al. | End-to-end learning of object motion estimation from retinal events for event-based object tracking | |
CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN111783748A (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
KR20170006355A (ko) | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 | |
CN108280411A (zh) | 一种具有空间变换能力的行人搜索方法 | |
CN114998934B (zh) | 基于多模态智能感知和融合的换衣行人重识别和检索方法 | |
CN114612823A (zh) | 一种面向实验室安全管理的人员行为监测方法 | |
CN107038400A (zh) | 人脸识别装置及方法和利用其的目标人跟踪装置及方法 | |
CN113205002B (zh) | 非受限视频监控的低清人脸识别方法、装置、设备及介质 | |
CN111539351A (zh) | 一种多任务级联的人脸选帧比对方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN112132157B (zh) | 一种基于树莓派的步态人脸融合识别方法 | |
CN112766217A (zh) | 基于解纠缠和特征级差异学习的跨模态行人重识别方法 | |
Diyasa et al. | Multi-face Recognition for the Detection of Prisoners in Jail using a Modified Cascade Classifier and CNN | |
CN115188066A (zh) | 基于协同注意力和多尺度融合的运动目标检测系统及方法 | |
CN109858351B (zh) | 一种基于层级实时记忆的步态识别方法 | |
CN113723188B (zh) | 一种结合人脸与步态特征的着装一致人员身份核验方法 | |
CN110910497A (zh) | 实现增强现实地图的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |