CN110427813A - 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 - Google Patents
基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 Download PDFInfo
- Publication number
- CN110427813A CN110427813A CN201910549345.5A CN201910549345A CN110427813A CN 110427813 A CN110427813 A CN 110427813A CN 201910549345 A CN201910549345 A CN 201910549345A CN 110427813 A CN110427813 A CN 110427813A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- posture
- pedestrian image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法。其实现方案是:根据行人图像数据集,对行人图像进行目标检测获取训练样本;构建基于多样性样本生成的孪生生成式对抗网络模型,该模型对目标检测后输入的两组行人图像的姿态属性信息互换,实现多样性样本的生成;构建基于保持身份特征的孪生生成式对抗网络模型,该模型利用身份判别器保留生成行人图像的身份信息,从而提升行人重识别对生成行人图像身份的鲁棒性;针对生成式对抗网络优化困难的问题,构建基于多目标优化的孪生生成式对抗网络参数学习方法;为了验证提出的行人重识别方法的有效性,对生成行人图像构成的数据集进行行人重识别方法验证。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法。
背景技术
随着人工智能技术的快速发展并且广泛应用于城市安防领域,研究深度学习、图像识别基础理论和关键技术的有着很重要的意义。行人重识别可以实现监控网络中多个摄像头视域内检索出特定目标行人的功能,它是利用计算机视觉方法判断图像或者视频序列中是否存在特定行人的技术,为跨摄像头的行人搜索提供了技术支撑。目前,行人重识别的关键在于行人特征表示和行人相似性度量两个步骤,深度学习在这两个方面都有很好的效果,近年来已经成为行人重识别领域的研究热点。由于深度学习模型需要大量样本进行参数训练,基于数据生成的行人重识别方法开始吸引学者的研究。因此,行人重识别方法大致可以分为三类:基于特征表示的行人重识别,基于度量学习的行人重识别,基于数据生成的行人重识别。
在行人重识别中,特征表示的优劣是行人能否被准确重识别的关键因素之一,特征表示方法研究主要集中在行人表观信息的特征提取和表示上,现有的行人特征表示方法主要分为人工设计特征和深度学习特征,其中人工设计特征包括底层特征和具有属性特性的中层特征。近年来,深度学习被广泛应用于行人重识别中的特征学习方面,相比于手工特征,深度学习模型对行人特征表达具有更好的判别性,因为深度学习技术可以提取到图像中抽象的高层特征。基于特征表示的行人重识别方法主要利用行人外观的特征信息,然而行人外观易受环境变化、行人行为以及摄像头参数的影响,导致该类行人重识别方法的识别效果不理想。
基于行人相似性度量方法从行人样本中学习最优的相似性度量计算方法来匹配相同的行人,区分不同的行人。当使用特征向量表示行人图像之后,常采用标准距离(如曼哈顿距离、欧氏距离和巴氏距离等)对两个特征向量进行相似性度量。然而,同一行人在跨越多个无重叠区域摄像头时,其外貌特征随着视角、光照、遮挡等因素的影响发生很大的变化,标准的距离度量方法效果不理想,因为它们平等地对待每一种特征,而不会摒弃那些独立使用时效果很差的特征。国内外的研究者们还提出了基于深度度量学习的行人相似性判别方法,具体目标为同一行人的不同图像相似度大于不同行人图像的相似度,深度网络的损失函数使得相同行人图片(正样本对)的距离尽可能小,不同行人图片(负样本对)的距离尽可能大。基于相似性度量学习的方法是由数据驱动实现的,需要通过训练大量的有标记数据,得到一个能反映样本特征的度量函数。在行人识别问题中,数据总量很大,但单个样本的数据量很小,如何利用少量样本学习有效的度量标准是行人识别的难点。
研究基于数据生成的行人重识别方法,可以解决行人重识别问题主要的难点问题,即个体行人的数据太少的问题,该问题不利于模型学习高效、鲁棒的特征表示和度量准则。
发明内容
发明目的:本发明目的在于克服上述现有技术的不足,提出了一种基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法。
本发明研究基于深度学习的方法,利用生成式对抗网络生成一系列标准的姿态图像,并且利用这些生成的图像扩充行人数据集以提升行人重识别网络的判别能力。
目前,虽然通过大量监控摄像头采集了大量的视频数据,但每个行人收集的数据非常稀少。因此,行人重识别任务是典型的大数据小样本问题。本发明针对行人重识别任务中大数据小样本瓶颈问题,提出行人重识别任务驱动的孪生生成式对抗网络模型生成多样性行人样本,采用多目标优化技术来约束生成器和判别器的协同训练。该方法可以用于行人图像的样本扩充,进而提高行人重识别对大数据小样本的鲁棒性。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,利用生成式对抗网络生成一系列标准的姿态图像,并且利用这些生成的图像扩充行人数据集以提升行人重识别网络的判别能力;
提出行人重识别任务驱动的孪生生成式对抗网络模型生成多样性行人样本,采用多目标优化技术来约束生成器和判别器的协同训练;
具体包括如下步骤:
(1)采用目标检测算法对行人图像数据中的行人图像进行目标检测,获取成对的训练样本,将成对训练样本的两个行人图像分别称为条件行人图像和目标行人图像;
(2)构建基于多样性样本生成的孪生生成式对抗网络模型,该模型对目标检测后输入的两组行人图像,即:条件行人图像和目标行人图像的姿态属性互换,实现多样性样本的生成;
(3)构建基于保持身份特征的孪生生成式对抗网络模型,该模型利用身份判别器保留生成行人图像的身份信息;
(4)构建基于多目标优化的孪生生成式对抗网络参数学习方法,通过基于进化多目标优化的群搜索策略提升孪生生成式对抗网络学习的稳定性;
(5)验证提出的行人重识别方法的有效性,对生成行人图像构成的数据集进行行人重识别方法验证。
所述步骤(1)中,对整张行人图像进行目标检测,采用深度学习的目标检测方法Faster RCNN目标检测算法。该方法利用可解释卷积神经网络通道,实现对输入行人图像进行特征提取;同时利用注意机制对多种遮挡模式进行跨通道的表示,进而提升行人检测的性能。
所述步骤(2)中,构建基于多样性样本生成的孪生生成式对抗网络由两个分支组成,每一个分支包括一个生成器和一个姿态判别器,满足:
其中:Ii为输入的条件行人图像,Ij为输入的目标行人图像,Pj为对应目标行人图像Ij的目标行人姿态;
LSiGAN表示目标行人图像Ij、目标行人姿态Pj与根据条件行人图像Ii、目标行人姿态Pj生成新图像G(Ii,Pj)之间的对抗损失函数;
Dp(Ij,Pj)表示姿态判别器对目标行人图像Ij和目标行人姿态Pj的判别结果;
G(Ii,Pj)表示条件行人图像Ii与目标行人姿态Pj经生成器后获得的生成图像;
Dp(Pj,G(Ii,Pj))表示姿态判别器对目标行人姿态Pj和生成图像G(Ii,Pj)的判别结果;
表示数学期望;
Ii,Ij∈I表示变量Ii,Ij服从真实行人数据分布I,Pj∈P表示变量Pj服从真实姿态数据分布P,表示变量G(Ii,Pj)服从生成行人数据分布
所述步骤2中,构建基于多样性样本生成的孪生生成式对抗网络模型包括如下步骤:
(21)采用图像编码器对条件行人图像进行外观特征编码;
(22)采用姿态编码器对目标行人姿态进行姿态特征编码;
(23)一系列连续姿态注意力转移模块融合外观特征和姿态特征;
(24)图像解码器将融合的特征生成新的图像。
步骤(21)~步骤(24),图像编码器、姿态编码器、一系列连续姿态注意力转移模块和图像解码器构成孪生生成式对抗网络中的生成器,按照下面的损失函数训练该生成器:
Lge=λreLre+λpeLpe
其中,Lge表示生成器的目标函数;
Lre是定义条件行人图像Ii与生成图像之间的像素级重构损失函数;
Lpe表示的是感知损失,它将条件行人图像Ii卷积得到的特征与生成图像卷积得到的特征作比较,使得高层信息更接近;
λre和λpe为加权系数;
m表示网络的第m层;
WmHmDm表示第m层特征图的维度;
φm表示VGG19网络模型第m卷积层;
||·||1表示一范数。
所述步骤(3)中,构建基于保持身份特征的孪生生成式对抗网络模型,该模型由两个分支组成,每一个分支包含一个身份判别器识别行人身份信息,该模型有一个身份验证分类器用以确定条件行人图像和是目标行人图像是否属于同一个人,所述身份判别器损失函数定义为:
其中,Lid用来训练身份判别器以来区分根据条件行人图像Ii和目标行人姿态Pj生成行人图像G(Ii,Pj)和同一分支输入的条件行人图像Ii是否属于同一个人;
Did(Ii,Ij)表示身份判别器对条件行人图像Ii和目标行人图像Ij的判别结果;
Did(Ii,G(Ii,Pj))表示身份判别器对条件行人图像Ii和生成图像G(Ii,Pj)的身份判别结果;
身份验证分类器用二进制交叉熵损失进行训练,所述二进制交叉熵损失如下:
Lv=-C[logd(Ii,Ij)]-(1-C)log(1-d(Ii,Ij))
其中,C是真实标签,如果Ii,Ij是同一个人,则C=1;如果Ii,Ij是不同一个人,则C=0;
d(·)是分支网络输出同一人置信分数。
所述步骤(4)中,构建基于多目标优化的孪生生成式对抗网络参数学习方法,目标函数为:
其中,Lloss表示基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法的目标函数,α、λid和λv为加权系数;多目标优化的孪生生成式对抗网络中生成器和判别器网络中两组参数相互影响,一组参数不合适会导致另外一组参数性能不稳定,因此采用基于进化多目标优化的群搜索策略:
minGAN(θG,θD):={LG(θG),LD(θD:θG)}
其中,θG是生成器的参数,θD是判别器的参数。
所述步骤(5)中,采用传统和公开数据集对生成行人图像构成的数据集进行行人重识别验证。
有益效果:本发明提供的一种基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,利用孪生生成式对抗网络生成一系列标准的姿态图像,从而提升行人重识别对姿态变化的鲁棒性。已有的基于多样性样本生成的行人重识别方法把样本生成和行人重识别任务分开处理,本发明针对上述问题,设计多目标优化的孪生生成式对抗网络参数学习方法,提高多样性样本生成和行人重识别网络训练提升的能力。
附图说明
图1为本发明方法的实施流程图;
图2为构建基于多样性样本生成的孪生生成式对抗网络的实施流程图;
图3为构建基于多样性样本生成的孪生生成式对抗网络的生成器框架示意图;
其中,Ii是条件行人图像,Pj是目标行人姿态,是生成器生成图像;
图4为构建基于多样性样本生成的孪生生成式对抗网络的判别器框架示意图;
图5为基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法整体框架示意图;
其中,Pi是对应条件行人图像Ii的条件行人姿态,Pj为对应目标行人图像Ij的目标行人姿态,和是孪生生成式对抗网络中生成器生成的行人图像。
具体实施方式
下面结合附图对本发明的技术方案作进一步详细的说明。
图1所示为一种基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,包括如下流程步骤:
步骤S01:利用Faster RCNN目标检测算法对行人图像数据中的行人图像进行目标检测,获取成对的训练样本,将成对训练样本的两个行人图像分别称为条件行人图像和目标行人图像;
步骤S02:构建基于多样性样本生成的孪生生成式对抗网络模型对目标检测后输入的两组行人图像:条件行人图像和目标行人图像的姿态属性信息互换,实现多样性样本的生成。该模型由两个分支组成,每一个分支包括一个生成器G和姿态判别器Dp,满足:
其中:Ii为输入的条件行人图像,Ij为输入的目标行人图像,Pj为对应目标行人图像Ij的目标行人姿态;
LSiGAN表示目标行人图像Ij、目标行人姿态Pj与根据条件行人图像Ii、目标行人姿态Pj生成新图像G(Ii,Pj)之间的对抗损失函数;
Dp(Ij,Pj)表示姿态判别器Dp对目标行人图像Ij和目标行人姿态Pj的判别结果;
G(Ii,Pj)表示条件行人图像Ii与目标行人姿态Pj经生成器G后获得的生成图像;
Dp(Pj,G(Ii,Pj))表示姿态判别器Dp对目标行人姿态Pj和生成图像G(Ii,Pj)的判别结果;
表示数学期望;
Ij∈I表示变量Ij服从真实行人数据分布I,Pj∈P表示变量Pj服从真实姿态数据分布P,表示变量G(Ii,Pj)服从生成行人数据分布
对于本实施例而言,上述步骤S02还可以进一步细化,其细化后的具体流程图如图2所示。图2中,该步骤S02进一步包括:
步骤S21:采用图像编码器对条件行人图像进行外观特征编码,图像编码器将条件行人图像Ii作为输入,编码条件行人图像的外观特征。图像编码器为一个包含3层下采样的卷积神经网络,三层卷积中从第一层卷积到第三层卷积所对应的滤波器个数分别为64、128和256,卷积核的大小除了第一层卷积为7×7、步长为1,其他三个卷积核大小都是3×3、步长为2。
步骤S22:采用姿态编码器对目标行人姿态进行姿态特征编码,姿态编码器将目标行人图像Ij的姿态Pj作为输入,编码目标行人图像的姿态特征。姿态编码器结构与图像编码器结构一样。
步骤S23:一系列连续姿态注意力转移模块融合外观特征和姿态特征,该模块由9个姿态注意力转移模块组成,每个姿态注意力转移模块带有一个注意机制,逐步引导外观和姿态特征传递以输出融合了新姿态的行人特征。每个姿态注意力转移模块由两个滤波器个数是256、卷积核的大小是3×3的卷积网络组成。
步骤S24:图像解码器将融合的特征生成新的图像,图像解码器将融合了新姿态的行人特征进行解码,输出包含条件行人图像外观以及目标行人姿态的行人图像特征。该图像解码器由三层反卷积神经网络组成,三层反卷积中从第一层反卷积到第三层反卷积所对应的滤波器个数分别为56、128和64,前两层反卷积核的大小为3×3、步长为2,第三个反卷积核大小是7×7、步长为1。
所述步骤S21到步骤S24,图像编码器、姿态编码器、一系列连续姿势注意力转移模块和图像解码器构成图像生成器G,其结构示意图如图3所示。本实施例按照下面的损失函数训练孪生生成式对抗网络生成器G:
Lge=λreLre+λpeLpe
其中,Lge表示孪生生成式对抗网络生成器G的目标函数;
Lre是定义条件行人图像Ii与生成图像之间的像素级重构损失函数;
Lpe表示的是感知损失,它将条件行人图像Ii卷积得到的特征与生成图像卷积得到的特征作比较,使得高层信息(内容和全局结构)更接近;
λre和λpe为加权系数;
m表示网络的第m层;
WmHmDm表示第m层特征图的维度;
φm表示VGG19网络模型第m卷积层;
||·||1表示一范数。
步骤S03:在步骤S02中孪生生成式对抗网络中,生成器G根据条件行人图像Ii和目标行人图像Ij的目标行人姿态Pj生成新的行人图像G(Ii,Pj),该生成的行人图像具有姿态Pj和条件行人图像Ii的外观,若条件行人图像Ii和目标行人图像Ij属于同一个人且外观相同,则新的行人图像G(Ii,Pj)应和目标行人图像Ij身份一致。因此构建基于保持身份特征的孪生生成式对抗网络模型,该模型由两个分支组成,每一个分支包含一个身份判别器Did识别行人身份信息。图像生成器G将试图欺骗身份判别器Did以确保编码的行人特征包含足够的与身份相关信息,身份判别器Did以区分生成的行人图像和同一分支的输入条件行人图像是否属于同一个人。所述身份判别器Did损失函数定义为:
其中Lid表示条件行人图像Ii和目标行人图像Ij与根据条件行人图像Ii和目标行人姿态Pj生成新图像G(Ii,Pj)之间的对抗损失函数;
Did(Ii,Ij)表示身份判别器Did对条件行人图像Ii和目标行人图像Ij的判别结果;
Did(Pj,G(Ii,Pj))表示身份判别器Did对条件行人图像Ii和生成图像G(Ii,Pj)的身份判别结果。
给定来自图像编码器的两个输入图像的特征,身份验证分类器V确定两个图像是否属于同一个人。行人身份验证是行人重新识别的主要任务,并确保图像编码器学习特征以捕获行人图像的身份信息。身份验证分类器V将两个行人图像的特征作为输入,可以判断输入图像对属于同一个人的概率。身份验证分类器V用二进制交叉熵损失训练身份验证分类器:
Lv=-C[logd(Ii,Ij)]-(1-C)log(1-d(Ii,Ij))
其中C是真实标签。如果Ii,Ij是同一个人,则C=1;如果Ii,Ij是不同一个人,则C=0;d(·)是分支网络输出同一人置信分数。
步骤S04:构建基于多目标优化的孪生生成式对抗网络参数学习方法,解决生成式对抗网络优化困难的问题。在生成式对抗网络中,生成器和判别器的目标是相互冲突的,生成器的目标是生成逼真的行人图像误导判别器,判别器的目标是识别出来生成器产生的伪图像。行人重识别孪生生成式对抗网络是一个多目标优化问题,因此构建基于多目标优化的孪生生成式对抗网络参数学习方法,目标函数为:
其中,Lloss表示基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法的目标函数,α、λid和λv为加权系数。为了使生成器和判别器协同进化,共同达到最优的状态,采用进化计算处理多目标优化问题,该方法利用群搜索的策略,通过种群之间的竞争与合作实现全局非支配解集的搜索:
minGAN(θG,θD):=(LG(θG),LD(θD:θG))
其中,θG是生成器的参数,θD是判别器的参数。
步骤S05:为了验证提出的行人重识别方法的有效性,可以采用传统和公开数据集对生成行人图像构成的数据集进行行人重识别验证。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,其特征在于:利用生成式对抗网络生成一系列标准的姿态图像,并且利用这些生成的图像扩充行人数据集以提升行人重识别网络的判别能力;
提出行人重识别任务驱动的孪生生成式对抗网络模型生成多样性行人样本,采用多目标优化技术来约束生成器和判别器的协同训练;
具体包括如下步骤:
(1)采用目标检测算法对行人图像数据中的行人图像进行目标检测,获取成对的训练样本,将成对训练样本的两个行人图像分别称为条件行人图像和目标行人图像;
(2)构建基于多样性样本生成的孪生生成式对抗网络模型,该模型对目标检测后输入的两组行人图像,即:条件行人图像和目标行人图像的姿态属性互换,实现多样性样本的生成;
(3)构建基于保持身份特征的孪生生成式对抗网络模型,该模型利用身份判别器保留生成行人图像的身份信息;
(4)构建基于多目标优化的孪生生成式对抗网络参数学习方法,通过基于进化多目标优化的群搜索策略提升孪生生成式对抗网络学习的稳定性;
(5)验证提出的行人重识别方法的有效性,对生成行人图像构成的数据集进行行人重识别方法验证。
2.根据权利要求1所述的基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,其特征在于:所述步骤(1)中,对整张行人图像进行目标检测,采用深度学习的目标检测方法Faster RCNN目标检测算法,利用可解释卷积神经网络通道,实现对输入行人图像进行特征提取;同时利用注意机制对多种遮挡模式进行跨通道的表示,进而提升行人检测的性能。
3.根据权利要求1所述的基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,其特征在于:所述步骤(2)中,构建基于多样性样本生成的孪生生成式对抗网络由两个分支组成,每一个分支包括一个生成器和一个姿态判别器,满足:
其中:Ii为输入的条件行人图像,Ij为输入的目标行人图像,Pj为对应目标行人图像Ij的目标行人姿态;
LSiGAN表示目标行人图像Ij、目标行人姿态Pj与根据条件行人图像Ii、目标行人姿态Pj生成新图像G(Ii,Pj)之间的对抗损失函数;
Dp(Ij,Pj)表示姿态判别器对目标行人图像Ij和目标行人姿态Pj的判别结果;
G(Ii,Pj)表示条件行人图像Ii与目标行人姿态Pj经生成器后获得的生成图像;
Dp(Pj,G(Ii,Pj))表示姿态判别器对目标行人姿态Pj和生成图像G(Ii,Pj)的判别结果;
表示数学期望;
Ii,Ij∈I表示变量Ii,Ij服从真实行人数据分布I,Pj∈P表示变量Pj服从真实姿态数据分布P,表示变量G(Ii,Pj)服从生成行人数据分布
4.根据权利要求1所述的基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,其特征在于:所述步骤2中,构建基于多样性样本生成的孪生生成式对抗网络模型包括如下步骤:
(21)采用图像编码器对条件行人图像进行外观特征编码;
(22)采用姿态编码器对目标行人姿态进行姿态特征编码;
(23)一系列连续姿态注意力转移模块融合外观特征和姿态特征;
(24)图像解码器将融合的特征生成新的图像。
5.根据权利要求4所述的基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,其特征在于:步骤(21)~步骤(24)中,所述图像编码器、姿态编码器、一系列连续姿态注意力转移模块和图像解码器构成孪生生成式对抗网络中的生成器,按照下面的损失函数训练该生成器:
Lge=λreLre+λpeLpe
其中,Lge表示生成器的目标函数;
Lre是定义条件行人图像Ii与生成图像之间的像素级重构损失函数;
Lpe表示的是感知损失,它将条件行人图像Ii卷积得到的特征与生成图像卷积得到的特征作比较,使得高层信息更接近;
λre和λpe为加权系数;
m表示网络的第m层;
WmHmDm表示第m层特征图的维度;
φm表示VGG19网络模型第m卷积层;
||·||1表示一范数。
6.根据权利要求1所述的基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,其特征在于:所述步骤(3)中,构建基于保持身份特征的孪生生成式对抗网络模型,该模型由两个分支组成,每一个分支包含一个身份判别器识别行人身份信息,该模型有一个身份验证分类器用以确定条件行人图像和是目标行人图像是否属于同一个人,所述身份判别器损失函数定义为:
其中,Lid用来训练身份判别器以来区分根据条件行人图像Ii和目标行人姿态Pj生成行人图像G(Ii,Pj)和同一分支输入的条件行人图像Ii是否属于同一个人;
Did(Ii,Ij)表示身份判别器对条件行人图像Ii和目标行人图像Ij的判别结果;
Did(Ii,G(Ii,Pj))表示身份判别器对条件行人图像Ii和生成图像G(Ii,Pj)的身份判别结果;
身份验证分类器用二进制交叉熵损失进行训练,所述二进制交叉熵损失如下:
Lv=-C[logd(Ii,Ij)]-(1-C)log(1-d(Ii,Ij))
其中,C是真实标签,如果Ii,Ij是同一个人,则C=1;如果Ii,Ij是不同一个人,则C=0;
d(·)是分支网络输出同一人置信分数。
7.根据权利要求1所述的基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,其特征在于:所述步骤(4)中,构建基于多目标优化的孪生生成式对抗网络参数学习方法,目标函数为:
其中,Lloss表示基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法的目标函数,α、λid和λv为加权系数;多目标优化的孪生生成式对抗网络中生成器和判别器网络中两组参数相互影响,一组参数不合适会导致另外一组参数性能不稳定,因此采用基于进化多目标优化的群搜索策略:
minGAN(θG,θD):={LG(θG),LD(θD:θG)}
其中,θG是生成器的参数,θD是判别器的参数。
8.根据权利要求1所述的基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法,其特征在于:所述步骤(5)中,采用传统和公开数据集对生成行人图像构成的数据集进行行人重识别验证。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910549345.5A CN110427813B (zh) | 2019-06-24 | 2019-06-24 | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910549345.5A CN110427813B (zh) | 2019-06-24 | 2019-06-24 | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110427813A true CN110427813A (zh) | 2019-11-08 |
CN110427813B CN110427813B (zh) | 2023-06-09 |
Family
ID=68409520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910549345.5A Active CN110427813B (zh) | 2019-06-24 | 2019-06-24 | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110427813B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111275057A (zh) * | 2020-02-13 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及设备 |
CN111339857A (zh) * | 2020-02-17 | 2020-06-26 | 昆明理工大学 | 基于身份一致性和不相关约束的跨视角行人重识别方法 |
CN111597978A (zh) * | 2020-05-14 | 2020-08-28 | 公安部第三研究所 | 基于StarGAN网络模型实现行人重识别图片自动生成的方法 |
CN111753786A (zh) * | 2020-06-30 | 2020-10-09 | 中国矿业大学 | 一种基于全尺度特征融合和轻量级生成式对抗网络的行人重识别方法 |
CN111753684A (zh) * | 2020-06-11 | 2020-10-09 | 昆明理工大学 | 一种利用目标姿势进行生成的行人重识别方法 |
CN111754391A (zh) * | 2020-05-15 | 2020-10-09 | 新加坡依图有限责任公司(私有) | 人脸转正方法、设备及计算机可读存储介质 |
CN112016490A (zh) * | 2020-08-28 | 2020-12-01 | 中国科学院重庆绿色智能技术研究院 | 基于生成对抗学习的行人属性识别方法 |
CN112069961A (zh) * | 2020-08-28 | 2020-12-11 | 电子科技大学 | 一种基于度量学习的少样本文档版面分析方法 |
CN112364791A (zh) * | 2020-11-17 | 2021-02-12 | 中南民族大学 | 一种基于生成对抗网络的行人重识别方法和系统 |
CN112507835A (zh) * | 2020-12-01 | 2021-03-16 | 燕山大学 | 一种基于深度学习技术分析多目标对象行为的方法及系统 |
CN112733771A (zh) * | 2021-01-18 | 2021-04-30 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路列车跨接线异物故障识别方法及系统 |
CN112784783A (zh) * | 2021-01-28 | 2021-05-11 | 武汉大学 | 基于虚拟样本的行人重识别方法 |
CN112949590A (zh) * | 2021-03-31 | 2021-06-11 | 济南大学 | 一种跨域行人重识别模型构建方法及构建系统 |
CN112989953A (zh) * | 2021-02-20 | 2021-06-18 | 西安理工大学 | 一种基于度量学习的目标遮挡检测与跟踪方法 |
CN113128456A (zh) * | 2021-04-30 | 2021-07-16 | 北京理工大学 | 一种联合图片生成的行人重识别方法 |
CN113283368A (zh) * | 2021-06-08 | 2021-08-20 | 电子科技大学中山学院 | 一种模型训练方法、人脸属性分析方法、装置及介质 |
CN113313078A (zh) * | 2021-07-02 | 2021-08-27 | 昆明理工大学 | 一种基于模型优化的轻量化夜间红外图像行人检测方法及系统 |
CN113408351A (zh) * | 2021-05-18 | 2021-09-17 | 河南大学 | 一种基于姿态引导生成对抗网络的行人重识别方法 |
CN113449552A (zh) * | 2020-03-25 | 2021-09-28 | 江苏翼视智能科技有限公司 | 基于分块非直接耦合gan网络的行人重识别方法 |
CN113642621A (zh) * | 2021-08-03 | 2021-11-12 | 南京邮电大学 | 基于生成对抗网络的零样本图像分类方法 |
CN113963206A (zh) * | 2021-10-20 | 2022-01-21 | 中国石油大学(华东) | 一种基于姿态指引的速滑运动员目标检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784182A (zh) * | 2018-12-17 | 2019-05-21 | 北京飞搜科技有限公司 | 行人重识别方法和装置 |
CN109886251A (zh) * | 2019-03-11 | 2019-06-14 | 南京邮电大学 | 一种基于姿势引导对抗学习的端到端的行人再识别方法 |
-
2019
- 2019-06-24 CN CN201910549345.5A patent/CN110427813B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784182A (zh) * | 2018-12-17 | 2019-05-21 | 北京飞搜科技有限公司 | 行人重识别方法和装置 |
CN109886251A (zh) * | 2019-03-11 | 2019-06-14 | 南京邮电大学 | 一种基于姿势引导对抗学习的端到端的行人再识别方法 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111275057A (zh) * | 2020-02-13 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及设备 |
CN111339857A (zh) * | 2020-02-17 | 2020-06-26 | 昆明理工大学 | 基于身份一致性和不相关约束的跨视角行人重识别方法 |
CN113449552A (zh) * | 2020-03-25 | 2021-09-28 | 江苏翼视智能科技有限公司 | 基于分块非直接耦合gan网络的行人重识别方法 |
CN111597978A (zh) * | 2020-05-14 | 2020-08-28 | 公安部第三研究所 | 基于StarGAN网络模型实现行人重识别图片自动生成的方法 |
CN111597978B (zh) * | 2020-05-14 | 2023-04-07 | 公安部第三研究所 | 基于StarGAN网络模型实现行人重识别图片自动生成的方法 |
CN111754391A (zh) * | 2020-05-15 | 2020-10-09 | 新加坡依图有限责任公司(私有) | 人脸转正方法、设备及计算机可读存储介质 |
CN111753684B (zh) * | 2020-06-11 | 2022-07-08 | 昆明理工大学 | 一种利用目标姿势进行生成的行人重识别方法 |
CN111753684A (zh) * | 2020-06-11 | 2020-10-09 | 昆明理工大学 | 一种利用目标姿势进行生成的行人重识别方法 |
CN111753786A (zh) * | 2020-06-30 | 2020-10-09 | 中国矿业大学 | 一种基于全尺度特征融合和轻量级生成式对抗网络的行人重识别方法 |
CN112016490A (zh) * | 2020-08-28 | 2020-12-01 | 中国科学院重庆绿色智能技术研究院 | 基于生成对抗学习的行人属性识别方法 |
CN112069961B (zh) * | 2020-08-28 | 2022-06-14 | 电子科技大学 | 一种基于度量学习的少样本文档版面分析方法 |
CN112069961A (zh) * | 2020-08-28 | 2020-12-11 | 电子科技大学 | 一种基于度量学习的少样本文档版面分析方法 |
CN112364791A (zh) * | 2020-11-17 | 2021-02-12 | 中南民族大学 | 一种基于生成对抗网络的行人重识别方法和系统 |
CN112507835A (zh) * | 2020-12-01 | 2021-03-16 | 燕山大学 | 一种基于深度学习技术分析多目标对象行为的方法及系统 |
CN112733771A (zh) * | 2021-01-18 | 2021-04-30 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路列车跨接线异物故障识别方法及系统 |
CN112733771B (zh) * | 2021-01-18 | 2021-10-01 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路列车跨接线异物故障识别方法及系统 |
US11837007B2 (en) | 2021-01-28 | 2023-12-05 | Wuhan University | Pedestrian re-identification method based on virtual samples |
CN112784783A (zh) * | 2021-01-28 | 2021-05-11 | 武汉大学 | 基于虚拟样本的行人重识别方法 |
CN112989953B (zh) * | 2021-02-20 | 2024-02-13 | 西安理工大学 | 一种基于度量学习的目标遮挡检测与跟踪方法 |
CN112989953A (zh) * | 2021-02-20 | 2021-06-18 | 西安理工大学 | 一种基于度量学习的目标遮挡检测与跟踪方法 |
CN112949590A (zh) * | 2021-03-31 | 2021-06-11 | 济南大学 | 一种跨域行人重识别模型构建方法及构建系统 |
CN112949590B (zh) * | 2021-03-31 | 2023-02-21 | 济南大学 | 一种跨域行人重识别模型构建方法及构建系统 |
CN113128456A (zh) * | 2021-04-30 | 2021-07-16 | 北京理工大学 | 一种联合图片生成的行人重识别方法 |
CN113408351A (zh) * | 2021-05-18 | 2021-09-17 | 河南大学 | 一种基于姿态引导生成对抗网络的行人重识别方法 |
CN113283368B (zh) * | 2021-06-08 | 2023-10-20 | 电子科技大学中山学院 | 一种模型训练方法、人脸属性分析方法、装置及介质 |
CN113283368A (zh) * | 2021-06-08 | 2021-08-20 | 电子科技大学中山学院 | 一种模型训练方法、人脸属性分析方法、装置及介质 |
CN113313078B (zh) * | 2021-07-02 | 2022-07-08 | 昆明理工大学 | 一种基于模型优化的轻量化夜间红外图像行人检测方法及系统 |
CN113313078A (zh) * | 2021-07-02 | 2021-08-27 | 昆明理工大学 | 一种基于模型优化的轻量化夜间红外图像行人检测方法及系统 |
CN113642621A (zh) * | 2021-08-03 | 2021-11-12 | 南京邮电大学 | 基于生成对抗网络的零样本图像分类方法 |
CN113963206A (zh) * | 2021-10-20 | 2022-01-21 | 中国石油大学(华东) | 一种基于姿态指引的速滑运动员目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110427813B (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110427813A (zh) | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 | |
CN107194341B (zh) | Maxout多卷积神经网络融合人脸识别方法和系统 | |
CN111325115B (zh) | 带有三重约束损失的对抗跨模态行人重识别方法和系统 | |
CN110414368B (zh) | 一种基于知识蒸馏的无监督行人重识别方法 | |
CN109543606B (zh) | 一种加入注意力机制的人脸识别方法 | |
Liu et al. | End-to-end comparative attention networks for person re-identification | |
CN105005774B (zh) | 一种基于卷积神经网络的人脸亲属关系识别方法及装置 | |
CN110084151B (zh) | 基于非局部网络深度学习的视频异常行为判别方法 | |
CN111126360A (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN112818931A (zh) | 基于多粒度深度特征融合的多尺度行人重识别方法 | |
CN108537136A (zh) | 基于姿态归一化图像生成的行人重识别方法 | |
CN111666843A (zh) | 一种基于全局特征和局部特征拼接的行人重识别方法 | |
CN107862300A (zh) | 一种基于卷积神经网络的监控场景下行人属性识别方法 | |
CN109815874A (zh) | 一种人员身份识别方法、装置、设备及可读存储介质 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN111310668B (zh) | 一种基于骨架信息的步态识别方法 | |
CN105574510A (zh) | 一种步态识别方法及装置 | |
CN109784288B (zh) | 一种基于判别感知融合的行人再识别方法 | |
CN110097029B (zh) | 基于Highway网络多视角步态识别的身份认证方法 | |
CN114998934B (zh) | 基于多模态智能感知和融合的换衣行人重识别和检索方法 | |
CN111950372A (zh) | 一种基于图卷积网络的无监督行人重识别方法 | |
CN110598543A (zh) | 基于属性挖掘和推理的模型训练方法及行人再识别方法 | |
CN113516005B (zh) | 一种基于深度学习和姿态估计的舞蹈动作评价系统 | |
CN108537181A (zh) | 一种基于大间距深度度量学习的步态识别方法 | |
CN108985200A (zh) | 一种基于终端设备的非配合式的活体检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |