CN111639580A - 一种结合特征分离模型和视角转换模型的步态识别方法 - Google Patents

一种结合特征分离模型和视角转换模型的步态识别方法 Download PDF

Info

Publication number
CN111639580A
CN111639580A CN202010452373.8A CN202010452373A CN111639580A CN 111639580 A CN111639580 A CN 111639580A CN 202010452373 A CN202010452373 A CN 202010452373A CN 111639580 A CN111639580 A CN 111639580A
Authority
CN
China
Prior art keywords
pictures
gait
visual angle
picture
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010452373.8A
Other languages
English (en)
Other versions
CN111639580B (zh
Inventor
华璟
罗利鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN202010452373.8A priority Critical patent/CN111639580B/zh
Publication of CN111639580A publication Critical patent/CN111639580A/zh
Application granted granted Critical
Publication of CN111639580B publication Critical patent/CN111639580B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种结合特征分离模型和视角转换模型的步态识别方法,该方法包括以下步骤:数据采集;训练基于特征分离模型和生成式对抗网络的视角转换器;训练视角判别器;训练步态识别器;测试与实际应用;本发明通过特征分离模型分离开外观特征和步态特征,使得在训练和实际应用中可以直接使用摄像机拍摄到的图像作为算法输入,而无需对图像进行语义分割等背景减法,有效降低了背景减法产生的误差;本发明通过视角转换降低了跨摄像头视角不同导致的识别误差;在测试时,本发明无需以步态模板或者连续视频序列作为输入,仅需要部分视频帧即可,且对是否连续没有要求。本发明提高了步态识别算法的鲁棒性。

Description

一种结合特征分离模型和视角转换模型的步态识别方法
技术领域
本发明属于计算机视觉中的步态识别领域,具体涉及一种结合特征分离模型和视角转换模型的步态识别方法。
背景技术
步态作为一种生物特征,相较脸部,指纹和虹膜等其他生物特征有其独特性。一是步态信息可以远距离捕捉识别,二是步态信息难以长期伪装。故步态识别技术在安全防控、社会保障等领域具有广泛的应用前景。
现有的步态识别方法可以分为基于模板和基于序列两种。基于模板的方法首先通过背景减法取得每帧中的人体轮廓;然后基于人体轮廓生成不同行人的步态模板;接下来通过机器学习的方法获取步态特征并测量目标的步态模板与数据库中其他模板的相似度;最后通过分类器来判断目标模板的便签。基于序列的方法,与前一种方法相比,去除了生成步态模板的步骤,直接以一段帧序列作为输入,提取时序特征,也常采用循环神经网络作为特征提取的手段。
上述两种方法都是基于一段连续的完整的去除背景的人体轮廓图序列,这与实际应用中摄像机拍摄到的图像有很大区别:一是去除图像所有背景得到人体轮廓图耗时耗力且存在误差;二是摄像机拍摄的图片可能存在连续帧丢失情况;三是上述算法对视角十分敏感,摄像头视角变动就会影响算法精度。
发明内容
针对现有技术存在的技术缺陷,本发明提出一种结合特征分离模型和视角转换模型的步态识别方法。
本发明的目的是通过以下技术方案实现的:一种结合特征分离模型和视角转换模型的步态识别方法,该方法包括以下步骤:
(1)数据采集:通过若干不同角度摄像头采集行人的行走图像,为图像标注身份标签和视角标签;
(2)训练基于特征分离模型和生成式对抗网络的视角转换器;
所述视觉转换器包括依次连接的编码器E、视角转换层V、生成器G和判别器D;
所述视角转换器的输入是:从采集图片中随机选取n组训练样本x=[x1,x2,x3…,xn],用xi表示第i组图片,每组图片由两张同属于同一个人同一时段不同视角的图片组成,分别表示为
Figure BDA0002507738220000021
其中α,β代表不同视角,记摄像头采集的全部视角数目为m;
(a)构建编码器E实现基于卷积神经网络的特征提取与分离:编码器E是由数层卷积层构成的神经网络,输入是单张图片;每张图片通过编码器得到两个特征向量
Figure BDA0002507738220000022
Figure BDA0002507738220000023
其中
Figure BDA0002507738220000024
代表这张图片的外观纹理特征,
Figure BDA0002507738220000025
代表这张图片的步态特征,即:E(xi)=vi
Figure BDA0002507738220000026
(b)构建视角转换层V实现特征向量的视角转换:视角转换层V是一个全连接层,采用流形学习的方法来进行视角转换,从α角度到β角度的视角转换可以表述为:
Figure BDA0002507738220000027
其中hk是从视角k到k+1的视角变换向量;全连接层的权重参数为H=[h1,h2。。。hm];通过将视角α和β正确编码为矢量表示
Figure BDA0002507738220000028
其中eαβ∈{0,1},完整的特征向量视角转换过程可以写为:
vβg′=vαg+Heαβ
(c)通过生成式对抗网络的方式生成视角转换后的图片,以G代指生成器,D代指判别器,两者的作用是相互对抗学习以生成高质量的图片,具体地:
生成器G采用U-net网络,将α视角的图片通过编码和视角转换得到的特征向量vβg′,与步骤(a)中分别将两个视角图片输入编码器E得到的外观特征的均值
Figure BDA0002507738220000029
输入生成器G,得到生成的β视角图片,记为
Figure BDA00025077382200000210
Figure BDA00025077382200000211
是两张图片外观特征的均值,代表他们共同的外观特征;
Figure BDA00025077382200000212
判别器D采用CNN分类器,输入是生成器生成的图片
Figure BDA00025077382200000213
和真实的视角β的图片xβ,输出是real或者fake;
(d)视角转换器的目标函数如下:
Figure BDA00025077382200000214
它由三个损失函数组成,分别是逐像素损失L1、多任务对抗损失L2和外观特征相似度损失L3,γ1,,γ2是超参数,用来权衡三个损失之间的比重;
L1逐像素损失函数如下:
Figure BDA0002507738220000031
其中,Entropy代表交叉熵函数,E(xα)o代表α角度图片输入编码器后产生的外观特征,E(xα)g代表α角度图片输入编码器后产生的步态特征;
L2多任务对抗损失函数如下:
Figure BDA0002507738220000032
L3外观特征相似度损失函数如下:
Figure BDA0002507738220000033
(3)训练视角判别器:
视角判别器C由数层全卷积层接一个sofamax函数构成,目的是判断输入图片的角度编号;网络的输入是从步骤(2)的(a)步骤得到的特征向量,输出是不同视角的概率;
(4)训练步态识别器,包括:
(a)基于卷积神经网络的特征提取:从步骤(1)处理后的图片中随机选取n'组训练样本x=[x1,x2,x3…,xn']作为网络的训练集,用xi表示第i组图片;每组图片由若干张同一个行人同一角度下的图片组成,即xi=[xi,1,xi,2…xi,j],其中j为同一个人某个视角下的图片的数目;通过卷积神经网络E'可以得到一组特征向量vi,即:E'(xi)=vi,vi=[vi,1,vi,2…vi,j];
(b)整合特征向量:通过取平均数mean()的方法将上述得到的特征向量组整合为单一特征向量
Figure BDA0002507738220000034
Figure BDA0002507738220000035
(c)通过三元组损失训练网络:三元组由三个元素构成:从训练数据集中随机选一个Anchor样本记为xA,然后再随机选取一个和Anchor属于同一类的Positive样本记为xP和不同类的Negative样本记为xN,由此构成一个Anchor,Positive,Negative三元组;
通过上述(a),(b)两步,得到对应的三元组特征向量
Figure BDA0002507738220000036
Figure BDA0002507738220000037
Figure BDA0002507738220000038
Figure BDA0002507738220000039
特征表达之间的距离尽可能小,而
Figure BDA00025077382200000310
Figure BDA00025077382200000311
的特征表达之间的距离尽可能大,并且要让
Figure BDA00025077382200000312
Figure BDA00025077382200000313
之间的距离和
Figure BDA00025077382200000314
Figure BDA00025077382200000315
之间的距离之间有一个最小间隔α,公式化的表示为:
Figure BDA00025077382200000316
对应的目标函数:
Figure BDA0002507738220000041
其中+表示[]内的值大于零的时候,取该值为损失,小于零的时候,损失为零;当
Figure BDA0002507738220000042
Figure BDA0002507738220000043
之间的距离小于
Figure BDA0002507738220000044
Figure BDA0002507738220000045
之间的距离加最小间隔α时,[]内的值大于0,就会产生损失;当
Figure BDA0002507738220000046
Figure BDA0002507738220000047
之间的距离大于
Figure BDA0002507738220000048
Figure BDA0002507738220000049
之间的距离加最小间隔α时,[]内的值小于0,损失为0;
(5)测试与实际应用:对于一组步态图片Q,目标是在已标注了身份ID的图片库G中找到Q的身份,包括:
(a)视角判别:对于序列Q,通过训练好的视角判别器,判断其对应的特定角度;
(b)对序列G中的图片进行视角转换:将序列G中所有图片转换为步骤(a)中判断出的角度,得到序列G';
(c)将序列Q输入到步态识别器网络中生成多尺度特征,将这些特征连接起来形成最终的表示Fp;将序列G'中的每一个样本均输入步态识别器网络中生成多尺度特征,并将特征连接起来生成Fg;计算Fp与Fg之间的欧式距离,距离最接近的即为序列Q的身份ID。
进一步地,所述步骤(2)构建编码器E过程中,同一个人在同一场景不同视角下的外观纹理特征
Figure BDA00025077382200000410
Figure BDA00025077382200000411
希望它们是相同的,步态特征
Figure BDA00025077382200000412
Figure BDA00025077382200000413
不同但是能够相互转换。
进一步地,所述步骤(2)中,生成器和判别器互相训练,生成器的训练目的是生成出以假乱真的图片骗过判别器,而判别器的训练目的是判别出输入图片的真假。
进一步地,所述步骤(2)中,逐像素损失L1的目的是为了最小化伪图像和真实图像之间的像素级重建误差,外观特征相似度损失L3的目的是在分离步态特征和外观特征中保证同一个人在相同场景不同视角下的外观纹理特征相同。
进一步地,所述步骤(3)中,训练视角判别器的损失函数采用交叉熵损失:
Figure BDA00025077382200000414
本发明相对于现有技术的有益效果是:
本发明提出了一种结合特征分离模型和视角转换模型的步态识别方法。第一通过特征分离模型分离开外观特征和步态特征,这使得在训练和实际应用中,可以直接使用摄像机拍摄到的图像作为算法输入,而无需对图像进行语义分割等背景减法,有效降低了背景减法产生的误差。第二通过视角转换降低了跨摄像头视角不同导致的识别误差。第三在测试的时候,无需以步态模板或者连续视频序列作为输入,仅需要部分视频帧即可,且对是否连续没有要求。综上三点提高了步态识别算法的鲁棒性。
附图说明
图1是本发明实施例视角转换器网络结构图;
图2是本发明实施例步态识别器网络结构图;
图3是本发明实施例中测试和实际应用流程图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
本申请提出的一种结合特征分离模型和视角转换模型的步态识别方法,具体步骤如下:
步骤(1)数据采集:
通过固定架设的数个不同角度摄像头采集行人的行走图像,为图像标注身份标签和视角标签。
步骤(2)训练基于特征分离模型和生成式对抗网络的视角转换器:
视觉转换器包括依次连接的编码器E、视角转换层V、生成器G和判别器D,具体网络结构如图1所示;
整个视角转换器的输入是:从步骤(1)处理后的图片中随机选取n组训练样本x=[x1,x2,x3…,xn],用xi表示第i组图片,每组图片由两张同属于同一个人同一时段不同视角的图片组成,分别表示为
Figure BDA0002507738220000051
其中α,β代表不同视角,记摄像头采集的全部视角数目为m。
(a)构建编码器E实现基于卷积神经网络的特征提取与分离:编码器E是由数层卷积层构成的神经网络,输入是单张图片。每张图片通过编码器得到两个特征向量
Figure BDA0002507738220000052
Figure BDA0002507738220000053
其中
Figure BDA0002507738220000054
代表这张图片的外观纹理特征,
Figure BDA0002507738220000055
代表这张图片的步态特征。同一个人在同一场景不同视角下的外观纹理特征
Figure BDA0002507738220000056
Figure BDA0002507738220000057
我们希望它们是相同的;步态特征
Figure BDA0002507738220000058
Figure BDA0002507738220000059
不同但是能够相互转换。即:E(xi)=vi
Figure BDA00025077382200000510
以此来实现特征的分离,外观特征用在之后的图像生成重构,步态特征用来识别一个人的身份。
(b)构建视角转换层V实现特征向量的视角转换:视角转换层V本质上是一个全连接层。采用流形学习的方法来进行视角转换。如果数据均匀采样于一个高维欧氏空间中的低维流形上,流形学习就是从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射以实现维数约简。依照流形学习,从α角度到β角度的视角转换可以表述为:
Figure BDA0002507738220000061
其中hk是从视角k到k+1的视角变换向量。
例如用11个摄像头采集0°到180°的步态图片,相邻摄像头之间相差18°,分别编号为角度1到角度11。那么36°的视角特征向量转换为90°就可以表述为:
Figure BDA0002507738220000062
全连接层的权重参数为H=[h1,h2。。。hm]。通过将视角α和β正确编码为矢量表示
Figure BDA0002507738220000063
Figure BDA0002507738220000064
其中eαβ∈{0,1},完整的特征向量视角转换过程可以写为:
vβg′=vαg+Heαβ
(c)通过生成式对抗网络的方式生成视角转换后的图片,以G代指生成器Generator,D代指判别器Discriminator。两者的作用是相互对抗学习,以生成高质量的图片。具体地:
生成器G采用U-net网络,将α视角的图片通过编码和视角转换得到的特征向量vβg′,与步骤(a)中分别将两个视角图片输入编码器E得到的外观特征的均值
Figure BDA0002507738220000065
输入生成器G,得到生成的β视角图片,记为
Figure BDA0002507738220000066
Figure BDA0002507738220000067
是两张图片外观特征的均值,代表他们共同的外观特征;
Figure BDA0002507738220000068
判别器D采用基础的CNN分类器,输入是生成器生成的图片
Figure BDA0002507738220000069
和真实的视角β的图片xβ,输出是real或者fake;
生成器和判别器互相训练,生成器的训练目的是生成出以假乱真的图片骗过判别器,而判别器的训练目的是判别出输入图片的真假。
(d)目标函数:视角转换器的目标函数如下:
完整的各组件E,V,D,G目标函数如下:
Figure BDA00025077382200000610
它由三个损失函数组成,分别是逐像素损失L1、多任务对抗损失L2和外观相似度损失L3。γ1,,γ2是超参数,用来权衡三个损失之间的比重。
L1逐像素损失函数的目的是为了最小化伪图像和真实图像之间的像素级重建误差:
Figure BDA0002507738220000071
其中‖.‖1代表一级范数,Entropy代表交叉熵函数,E(xα)o代表α角度图片输入编码器后产生的外观特征,E(xα)g代表α角度图片输入编码器后产生的步态特征,mean()是平均数函数。
L2多任务对抗损失是生成式对抗网络中常用损失函数:
Figure BDA0002507738220000072
L3外观特征相似度损失的目的是在分离步态特征和外观特征中保证同一个人在相同场景不同视角下的外观纹理特征相同:
Figure BDA0002507738220000073
其中‖.‖2代表二级范数。
步骤(3)训练视角判别器:
在实际应用中,无法通过原始的摄像头数据直接确定人物的具体视角,故需要训练得到一个视角判别器来完成该目的。视角判别器用C表示,由数层全卷积层接一个sofamax函数构成,目的是判断输入图片的角度编号。网络的输入是从步骤(2)的(a)步骤得到的特征向量,输出是不同视角的概率,损失函数采用交叉熵损失:
Figure BDA0002507738220000074
步骤(4)训练步态识别器:
步态识别器的具体网络结构如图2所示;
(a)基于卷积神经网络的特征提取:从步骤(1)处理后的图片中随机选取n'组训练样本x=[x1,x2,x3…,xn']作为网络的训练集,用xi表示第i组图片。与步骤(2)不同,每组图片由若干张同一个行人同一角度下的图片组成,即xi=[xi,1,xi,2…xi,j],其中j为同一个人某个视角下的图片的数目。通过另一卷积神经网络E'可以得到一组特征向量vi,即:E'(xi)=vi,vi=[vi,1,vi,2…vi,j]。
(b)整合特征向量:通过取平均数mean()的方法将上述得到的特征向量组整合为单一特征向量
Figure BDA0002507738220000075
Figure BDA0002507738220000076
(c)通过三元组损失训练网络:三元组由三个元素构成:从训练数据集中随机选一个样本,该样本称为Anchor,然后再随机选取一个和Anchor(记为xA)属于同一类的样本和不同类的样本,这两个样本分别称为Positive(记为xP)和Negative(记为xN),由此构成一个Anchor,Positive,Negative三元组。通过上述(a),(b)两步,得到对应的三元组特征向量
Figure BDA0002507738220000081
Figure BDA0002507738220000082
Figure BDA0002507738220000083
Figure BDA0002507738220000084
特征表达之间的距离尽可能小,而
Figure BDA0002507738220000085
Figure BDA0002507738220000086
的特征表达之间的距离尽可能大,并且要让
Figure BDA0002507738220000087
Figure BDA0002507738220000088
之间的距离和
Figure BDA0002507738220000089
Figure BDA00025077382200000810
之间的距离之间有一个最小间隔α。公式化的表示为:
Figure BDA00025077382200000811
对应的目标函数:
Figure BDA00025077382200000812
这里距离用欧式距离度量,+表示[]内的值大于零的时候,取该值为损失,小于零的时候,损失为零。当
Figure BDA00025077382200000813
Figure BDA00025077382200000814
之间的距离小于
Figure BDA00025077382200000815
Figure BDA00025077382200000816
之间的距离加最小间隔α时,[]内的值大于0,就会产生损失;当
Figure BDA00025077382200000817
Figure BDA00025077382200000818
之间的距离大于
Figure BDA00025077382200000819
Figure BDA00025077382200000820
之间的距离加最小间隔α时,[]内的值小于0,损失为0。
步骤(5)测试与实际应用:
测试和实际应用流程如图3所示。
对于一组步态图片Q,目标是在已标注了身份ID的图片库G中找到Q的身份。
(a)视角判别:对于序列Q,首先通过训练好的视角判别器,判断其对应的特定角度。
(b)对序列G中的图片进行视角转换:将序列G中所有图片转换为步骤(a)中判断出来的角度,得到序列G'。
(c)将序列Q输入到步态识别器网络中生成多尺度特征,将这些特征连接起来形成最终的表示Fp。然后将序列G'中的每一个样本都走一遍相同的流程,即输入步态识别器网络中生成多尺度特征,并将特征连接起来生成Fg。计算Fp与Fg之间的欧式距离,距离最接近的就是序列Q的身份ID。
以上所述仅是本发明优选的实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明构思的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明所保护范围内。

Claims (5)

1.一种结合特征分离模型和视角转换模型的步态识别方法,其特征在于,包括以下步骤:
(1)数据采集:通过若干不同角度摄像头采集行人的行走图像,为图像标注身份标签和视角标签;
(2)训练基于特征分离模型和生成式对抗网络的视角转换器;
所述视觉转换器包括依次连接的编码器E、视角转换层V、生成器G和判别器D。
所述视角转换器的输入是:从采集图片中随机选取n组训练样本x=[x1,x2,x3...,xn],用xi表示第i组图片,每组图片由两张同属于同一个人同一时段不同视角的图片组成,分别表示为
Figure FDA0002507738210000011
其中α,β代表不同视角,记摄像头采集的全部视角数目为m。
(a)构建编码器E实现基于卷积神经网络的特征提取与分离:编码器E是由数层卷积层构成的神经网络,输入是单张图片;每张图片通过编码器得到两个特征向量
Figure FDA0002507738210000012
Figure FDA0002507738210000013
其中
Figure FDA0002507738210000014
代表这张图片的外观纹理特征,
Figure FDA00025077382100000113
代表这张图片的步态特征,即:
Figure FDA0002507738210000015
(b)构建视角转换层V实现特征向量的视角转换:视角转换层V是一个全连接层,采用流形学习的方法来进行视角转换,从α角度到β角度的视角转换可以表述为:
Figure FDA0002507738210000016
其中hk是从视角k到k+1的视角变换向量;全连接层的权重参数为H=[h1,h2。。。hm];通过将视角α和β正确编码为矢量表示
Figure FDA0002507738210000017
其中eαβ∈{0,1},完整的特征向量视角转换过程可以写为:
vβg′=vαg+Heαβ
(c)通过生成式对抗网络的方式生成视角转换后的图片,以G代指生成器,D代指判别器,两者的作用是相互对抗学习以生成高质量的图片,具体地:
生成器G采用U-net网络,将α视角的图片通过编码和视角转换得到的特征向量vβg′,与步骤(a)中分别将两个视角图片输入编码器E得到的外观特征的均值
Figure FDA0002507738210000018
输入生成器G,得到生成的β视角图片,记为
Figure FDA0002507738210000019
Figure FDA00025077382100000110
是两张图片外观特征的均值,代表他们共同的外观特征;
Figure FDA00025077382100000111
判别器D采用CNN分类器,输入是生成器生成的图片
Figure FDA00025077382100000112
和真实的视角β的图片xβ,输出是real或者fake。
(d)视角转换器的目标函数如下:
Figure FDA0002507738210000021
它由三个损失函数组成,分别是逐像素损失L1、多任务对抗损失L2和外观特征相似度损失L3,γ1,,γ2是超参数,用来权衡三个损失之间的比重;
L1逐像素损失函数如下:
Figure FDA0002507738210000022
其中,Entropy代表交叉熵函数,E(xα)o代表α角度图片输入编码器后产生的外观特征,E(xα)g代表α角度图片输入编码器后产生的步态特征;
L2多任务对抗损失函数如下:
Figure FDA0002507738210000023
L3外观特征相似度损失函数如下:
Figure FDA0002507738210000024
(3)训练视角判别器:
视角判别器C由数层全卷积层接一个sofamax函数构成,目的是判断输入图片的角度编号;网络的输入是从步骤(2)的(a)步骤得到的特征向量,输出是不同视角的概率。
(4)训练步态识别器,包括:
(a)基于卷积神经网络的特征提取:从步骤(1)处理后的图片中随机选取n′组训练样本x=[x1,x2,x3...,xn′]作为网络的训练集,用xi表示第i组图片;每组图片由若干张同一个行人同一角度下的图片组成,即xi=[xi,1,xi,2…xi,j],其中j为同一个人某个视角下的图片的数目;通过卷积神经网络E′可以得到一组特征向量vi,即:E′(xi)=vi,vi=[vi,1,vi, 2...vi,j];
(b)整合特征向量:通过取平均数mean()的方法将上述得到的特征向量组整合为单一特征向量
Figure FDA0002507738210000025
Figure FDA0002507738210000026
(c)通过三元组损失训练网络:三元组由三个元素构成:从训练数据集中随机选一个Anchor样本记为xA,然后再随机选取一个和Anchor属于同一类的Positive样本记为xP和不同类的Negative样本记为xN,由此构成一个Anchor,Positive,Negative三元组;通过上述(a),(b)两步,得到对应的三元组特征向量
Figure FDA0002507738210000027
Figure FDA0002507738210000028
Figure FDA0002507738210000029
Figure FDA00025077382100000210
特征表达之间的距离尽可能小,而
Figure FDA0002507738210000031
Figure FDA0002507738210000032
的特征表达之间的距离尽可能大,并且要让
Figure FDA0002507738210000033
Figure FDA0002507738210000034
之间的距离和
Figure FDA0002507738210000035
Figure FDA0002507738210000036
之间的距离之间有一个最小间隔α,公式化的表示为:
Figure FDA0002507738210000037
对应的目标函数:
Figure FDA0002507738210000038
其中+表示[]内的值大于零的时候,取该值为损失,小于零的时候,损失为零;当
Figure FDA0002507738210000039
Figure FDA00025077382100000310
之间的距离小于
Figure FDA00025077382100000311
Figure FDA00025077382100000312
之间的距离加最小间隔α时,[]内的值大于0,就会产生损失;当
Figure FDA00025077382100000313
Figure FDA00025077382100000314
之间的距离大于
Figure FDA00025077382100000315
Figure FDA00025077382100000316
之间的距离加最小间隔α时,[]内的值小于0,损失为0;
(5)测试与实际应用:对于一组步态图片Q,目标是在已标注了身份ID的图片库G中找到Q的身份,包括:
(a)视角判别:对于序列Q,通过训练好的视角判别器,判断其对应的特定角度;
(b)对序列G中的图片进行视角转换:将序列G中所有图片转换为步骤(a)中判断出的角度,得到序列G′;
(c)将序列Q输入到步态识别器网络中生成多尺度特征,将这些特征连接起来形成最终的表示Fp;将序列G′中的每一个样本均输入步态识别器网络中生成多尺度特征,并将特征连接起来生成Fg;计算Fp与Fg之间的欧式距离,距离最接近的即为序列Q的身份ID。
2.根据权利要求1所述的一种结合特征分离模型和视角转换模型的步态识别方法,其特征在于,所述步骤(2)构建编码器E过程中,同一个人在同一场景不同视角下的外观纹理特征
Figure FDA00025077382100000317
Figure FDA00025077382100000318
希望它们是相同的,步态特征
Figure FDA00025077382100000319
Figure FDA00025077382100000320
不同但是能够相互转换。
3.根据权利要求1所述的一种结合特征分离模型和视角转换模型的步态识别方法,其特征在于,所述步骤(2)中,生成器和判别器互相训练,生成器的训练目的是生成出以假乱真的图片骗过判别器,而判别器的训练目的是判别出输入图片的真假。
4.根据权利要求1所述的一种结合特征分离模型和视角转换模型的步态识别方法,其特征在于,所述步骤(2)中,逐像素损失L1的目的是为了最小化伪图像和真实图像之间的像素级重建误差,外观特征相似度损失L3的目的是在分离步态特征和外观特征中保证同一个人在相同场景不同视角下的外观纹理特征相同。
5.根据权利要求1所述的一种结合特征分离模型和视角转换模型的步态识别方法,其特征在于,所述步骤(3)中,训练视角判别器的损失函数采用交叉熵损失:
Figure FDA00025077382100000321
CN202010452373.8A 2020-05-25 2020-05-25 一种结合特征分离模型和视角转换模型的步态识别方法 Active CN111639580B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010452373.8A CN111639580B (zh) 2020-05-25 2020-05-25 一种结合特征分离模型和视角转换模型的步态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010452373.8A CN111639580B (zh) 2020-05-25 2020-05-25 一种结合特征分离模型和视角转换模型的步态识别方法

Publications (2)

Publication Number Publication Date
CN111639580A true CN111639580A (zh) 2020-09-08
CN111639580B CN111639580B (zh) 2023-07-18

Family

ID=72330957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010452373.8A Active CN111639580B (zh) 2020-05-25 2020-05-25 一种结合特征分离模型和视角转换模型的步态识别方法

Country Status (1)

Country Link
CN (1) CN111639580B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070027A (zh) * 2020-09-09 2020-12-11 腾讯科技(深圳)有限公司 网络训练、动作识别方法、装置、设备及存储介质
CN112487903A (zh) * 2020-11-23 2021-03-12 中国信息通信科技集团有限公司 基于对抗网络的步态数据生成方法及设备
CN112633222A (zh) * 2020-12-30 2021-04-09 民航成都电子技术有限责任公司 基于对抗网络的步态识别方法、装置、设备及介质
CN112990120A (zh) * 2021-04-25 2021-06-18 昆明理工大学 一种利用相机风格分离域信息的跨域行人重识别方法
CN113762015A (zh) * 2021-01-05 2021-12-07 北京沃东天骏信息技术有限公司 一种图像处理方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085716A (zh) * 2017-05-24 2017-08-22 复旦大学 基于多任务生成对抗网络的跨视角步态识别方法
CN109726654A (zh) * 2018-12-19 2019-05-07 河海大学 一种基于生成对抗网络的步态识别方法
US20190147642A1 (en) * 2017-11-15 2019-05-16 Google Llc Learning to reconstruct 3d shapes by rendering many 3d views
CN109902646A (zh) * 2019-03-08 2019-06-18 中南大学 一种基于长短时记忆网络的步态识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085716A (zh) * 2017-05-24 2017-08-22 复旦大学 基于多任务生成对抗网络的跨视角步态识别方法
US20190147642A1 (en) * 2017-11-15 2019-05-16 Google Llc Learning to reconstruct 3d shapes by rendering many 3d views
CN109726654A (zh) * 2018-12-19 2019-05-07 河海大学 一种基于生成对抗网络的步态识别方法
CN109902646A (zh) * 2019-03-08 2019-06-18 中南大学 一种基于长短时记忆网络的步态识别方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070027A (zh) * 2020-09-09 2020-12-11 腾讯科技(深圳)有限公司 网络训练、动作识别方法、装置、设备及存储介质
CN112487903A (zh) * 2020-11-23 2021-03-12 中国信息通信科技集团有限公司 基于对抗网络的步态数据生成方法及设备
CN112633222A (zh) * 2020-12-30 2021-04-09 民航成都电子技术有限责任公司 基于对抗网络的步态识别方法、装置、设备及介质
CN113762015A (zh) * 2021-01-05 2021-12-07 北京沃东天骏信息技术有限公司 一种图像处理方法和装置
CN112990120A (zh) * 2021-04-25 2021-06-18 昆明理工大学 一种利用相机风格分离域信息的跨域行人重识别方法

Also Published As

Publication number Publication date
CN111639580B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
CN110084156B (zh) 一种步态特征提取方法及基于步态特征的行人身份识别方法
CN111639580B (zh) 一种结合特征分离模型和视角转换模型的步态识别方法
CN111310731B (zh) 基于人工智能的视频推荐方法、装置、设备及存储介质
CN108520216B (zh) 一种基于步态图像的身份识别方法
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
CN113139479B (zh) 一种基于光流和rgb模态对比学习的微表情识别方法及系统
Chen et al. End-to-end learning of object motion estimation from retinal events for event-based object tracking
CN111814661A (zh) 基于残差-循环神经网络的人体行为识别方法
CN111783748A (zh) 人脸识别方法、装置、电子设备及存储介质
KR20170006355A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
CN108280411A (zh) 一种具有空间变换能力的行人搜索方法
CN114998934B (zh) 基于多模态智能感知和融合的换衣行人重识别和检索方法
CN114612823A (zh) 一种面向实验室安全管理的人员行为监测方法
CN107038400A (zh) 人脸识别装置及方法和利用其的目标人跟踪装置及方法
CN113205002B (zh) 非受限视频监控的低清人脸识别方法、装置、设备及介质
CN111539351A (zh) 一种多任务级联的人脸选帧比对方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN112132157B (zh) 一种基于树莓派的步态人脸融合识别方法
CN112766217A (zh) 基于解纠缠和特征级差异学习的跨模态行人重识别方法
Diyasa et al. Multi-face Recognition for the Detection of Prisoners in Jail using a Modified Cascade Classifier and CNN
CN115188066A (zh) 基于协同注意力和多尺度融合的运动目标检测系统及方法
CN109858351B (zh) 一种基于层级实时记忆的步态识别方法
CN113723188B (zh) 一种结合人脸与步态特征的着装一致人员身份核验方法
CN110910497A (zh) 实现增强现实地图的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant