CN111597978B - 基于StarGAN网络模型实现行人重识别图片自动生成的方法 - Google Patents
基于StarGAN网络模型实现行人重识别图片自动生成的方法 Download PDFInfo
- Publication number
- CN111597978B CN111597978B CN202010408231.1A CN202010408231A CN111597978B CN 111597978 B CN111597978 B CN 111597978B CN 202010408231 A CN202010408231 A CN 202010408231A CN 111597978 B CN111597978 B CN 111597978B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- network
- picture
- appearance
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 54
- 238000000605 extraction Methods 0.000 claims abstract description 53
- 238000013508 migration Methods 0.000 claims abstract description 26
- 230000005012 migration Effects 0.000 claims abstract description 26
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 9
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003042 antagnostic effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于StarGAN网络模型实现行人重识别图片自动生成的方法,包括对训练用的行人图片数据集进行预处理;将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;基于StarGAN网络模型构建行人重识别图片,自动生成风格迁移网络;将训练用行人图片以及对应的姿态特征和外观特征输入风格迁移网络,并进行训练;形成最终的行人生成网络。采用了本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法,可以使用在任意数据集上训练得到的任意特征提取预训练网络以及姿态提取预训练网络来对进行行人特征提取,生成的行人重识别图片清晰、真实。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及生成对抗网络的图像生成技术领域,具体是指一种基于StarGAN网络模型实现行人重识别图片自动生成的方法。
背景技术
目前,行人重识别技术(Person Re-identification也称目标人再识别,简称为ReID)主要基于视频图像搜索。在监控视频中,由于相机分辨率和拍摄角度的缘故,通常无法得到质量非常高的人脸图片。当人脸识别失效的情况下,基于整体目标行人特征的重识别就成为了一个非常重要的替代品。它有一个非常重要的特性就是跨摄像头,所以通常评价行人重识别产品性能的时候,是要检索出不同摄像头下的相同目标人图片。目前,行人重识别的研究以及检验检测均面临着行人重识别图片数据集短缺这一问题,诸如图像分辨率低、视角变化、姿态变化、光线变化以及遮挡等都会给数据集构建带来很大困难。
1)监控视频的画面一般比较模糊,分辨率也比较低;
2)行人重识别的图像往往采自于不同的摄像机,由于拍摄场景、摄像参数不同,行人重识别数据集构建一般存在光照变化及视角变化等问题;
3)进行重识别的目标人图像可能拍摄于不同的时间,目标人姿态、衣着会有不同程度的改变;
4)在不同的光照条件下,目标人的外观特征也会有很大的差异。
发明内容
本发明的目的是克服了上述现有技术的缺点,提供了一种满足清晰、真实、适用范围较为广泛的基于StarGAN网络模型实现行人重识别图片自动生成的方法。
为了实现上述目的,本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法如下:
该基于StarGAN网络模型实现行人重识别图片自动生成的方法,其主要特点是,所述的方法包括以下步骤:
(1)对训练用的行人图片数据集进行预处理;
(2)将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;
(3)基于StarGAN网络模型构建行人重识别图片,自动生成风格迁移网络;
(4)将训练用行人图片以及对应的姿态特征和外观特征输入风格迁移网络,并进行训练;
(5)将姿态特征提取网络以及外观特征提取网络以及行人生成网络结合形成最终的行人生成网络;
(6)将源行人重识别图片和目标图片输入行人生成网络生成样式由源迁移至目标的行人图片。
较佳地,所述的步骤(1)具体包括以下步骤:
(1.1)对原始包含行人的图片进行随机行人区域裁剪以及缩放;
(1.2)对缩放后的图片进行增加噪声以及区域遮挡处理。
较佳地,所述的步骤(1)中预处理操作后的行人图片为8位、单通道、大小为2N×2N-1像素的图片,其中,N的取值为大于等于6且小于等于9的正整数。
较佳地,所述的步骤(2)中的姿态特征提取网络以及外观特征提取网络为通用预训练模型。
较佳地,所述的步骤(3)具体包括以下步骤:
(3.1)选取一成对的源行人图片与目标行人图片,将由源行人图片以及对应的外观特征连同目标行人图片的姿态特征,输入生成器生成与源行人具有相同外观、与目标行人具有相同姿态的新生成图;
(3.2)将新生成图以及与源行人图片所对应的姿态特征以及外观特征均重新输入生成器中重构源行人图片;
(3.3)判断的重构行人图片的重构损失,处理重构的图片和原始的输入的源行人图片使两者尽可能相似;
(3.4)将新生成图传输给判别器,对抗网络判断图的真假,以及图的外观特征与目标行人图片是否一致,计算优化对抗网络损失;
(3.5)计算生成对抗网络的对抗损失。
较佳地,所述的步骤(4)的训练操作具体包括以下步骤:
使用ADAM梯度优化方案训练生成网络与对抗网络。
较佳地,所述的步骤(4)中的姿态特征以及外观特征通过向量拼接方式与对应行人图片输入至风格迁移网络,并且将源图与目标图作为匹配进行训练。
较佳地,所述的步骤(5)具体为:
去掉原始训练网络中对抗网络的部分,保存其它网络结构。
较佳地,所述的步骤(5)中姿态特征提取网络以及外观特征提取网络和步骤(2)中的姿态特征提取网络以及外观特征提取网络相同。
采用了本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法,由于其采用深度学习技术,利用真实行人图片数据来对风格迁移生成对抗网络进行训练,并且将姿态特征和外观特征建立联系,得到了可以进行风格迁移的行人的生成网络。本发明的核心就在于整体方法的高效性与灵活性:可以使用在任意数据集上训练得到的任意特征提取预训练网络以及姿态提取预训练网络来对进行行人特征提取;最终得到的行人生成网络无需额外输入行人标签,并且生成的行人重识别图片清晰、真实,可供训练以及检测验证使用。
附图说明
图1为本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法的流程图。
图2为本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法的行人图像预处理流程示意图。
图3为本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法的基于StarGAN构建的行人重识别图片自动生成风格迁移网络结构图。
图4为本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法的具体实施例示意图。
具体实施方式
为了能够更清楚地描述本发明的技术内容,下面结合具体实施例来进行进一步的描述。
本发明的该基于StarGAN网络模型实现行人重识别图片自动生成的方法,其中包括以下步骤:
(1)对训练用的行人图片数据集进行预处理;
(1.1)对原始包含行人的图片进行随机行人区域裁剪以及缩放;
(1.2)对缩放后的图片进行增加噪声以及区域遮挡处理;
(2)将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;
(3)基于StarGAN网络模型构建行人重识别图片,自动生成风格迁移网络;
(3.1)选取一成对的源行人图片与目标行人图片,将由源行人图片以及对应的外观特征连同目标行人图片的姿态特征,输入生成器生成与源行人具有相同外观、与目标行人具有相同姿态的新生成图;
(3.2)将新生成图以及与源行人图片所对应的姿态特征以及外观特征均重新输入生成器中重构源行人图片;
(3.3)判断的重构行人图片的重构损失,处理重构的图片和原始的输入的源行人图片使两者尽可能相似;
(3.4)将新生成图传输给判别器,对抗网络判断图的真假,以及图的外观特征与目标行人图片是否一致,计算优化对抗网络损失;
(3.5)计算生成对抗网络的对抗损失;
(4)将训练用行人图片以及对应的姿态特征和外观特征输入风格迁移网络,并进行训练;使用ADAM梯度优化方案训练生成网络与对抗网络;
(5)将姿态特征提取网络以及外观特征提取网络以及行人生成网络结合形成最终的行人生成网络;
去掉原始训练网络中对抗网络的部分,保存其它网络结构;
(6)将源行人重识别图片和目标图片输入行人生成网络生成样式由源迁移至目标的行人图片。
作为本发明的优选实施方式,所述的步骤(1)中预处理操作后的行人图片为8位、单通道、大小为2N×2N-1像素的图片,其中,N的取值为大于等于6且小于等于9的正整数。
作为本发明的优选实施方式,所述的步骤(2)中的姿态特征提取网络以及外观特征提取网络为通用预训练模型。
作为本发明的优选实施方式,所述的步骤(4)中的姿态特征以及外观特征通过向量拼接方式与对应行人图片输入至风格迁移网络,并且将源图与目标图作为匹配进行训练。
作为本发明的优选实施方式,所述的步骤(5)中姿态特征提取网络以及外观特征提取网络和步骤(2)中的姿态特征提取网络以及外观特征提取网络相同。
本发明的具体实施方式中,包括对训练用的行人图片数据集进行预处理;将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;基于StarGAN构建行人重识别图片自动生成风格迁移网络;将训练用行人图片以及对应的姿态特征以及外观特征输入风格迁移网络进行训练;将姿态特征提取网络、外观特征提取网络以及最终的行人生成网络结合形成最终的行人生成网络;将源行人重识别图片以及目标图片输入行人生成网络生成样式由源迁移至目标的行人图片。采用了本发明的方法,最终由行人生成网络可进行不同行人图片样式的迁移来生成逼真的行人图片,在行人重识别训练数据集构建以及行人重识别技术检验检测领域都有广阔的应用前景。
该基于StarGAN实现行人重识别图片自动生成的方法,其主要特点是,方法包括以下步骤:
(1)对训练用的行人图片数据集进行预处理;
(2)将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;
(3)基于StarGAN构建行人重识别图片自动生成风格迁移网络;
(4)将训练用行人图片以及对应的姿态特征以及外观特征输入风格迁移网络进行训练;
(5)将姿态特征提取网络、外观特征提取网络以及最终的行人生成网络结合形成最终的行人生成网络;
(6)将源行人重识别图片以及目标图片输入行人生成网络生成样式由源迁移至目标的行人图片。
步骤(1)中的预处理包括随机行人区域裁剪、缩放、增加噪声、区域遮挡。
步骤(1)中预处理后的行人图片为8位、单通道、大小为2N×2N-1像素的图片。
N的取值为大于等于6、小于等于9的正整数。
步骤(2)中的姿态特征提取网络以及外观特征提取网络为通用预训练模型。
步骤(3)具体为:
生成网络包含N+1次卷积、批归一化处理以及激活处理;
对抗网络包含N-3次卷积、批归一化处理以及激活处理。
步骤(4)中姿态特征以及外观特征采用向量拼接方式与对应行人图片输入至风格迁移网络,并且将源图与目标图作为匹配进行训练。
步骤(5)具体为:
风格迁移网络训练完成后,去掉原始训练网络中对抗网络部分,其它网络结构保存。
步骤(5)中姿态特征提取网络、外观特征提取网络与步骤(2)中的姿态特征提取网络、外观特征提取网络相同。
步骤(6)中最终生成的行人图片保留了源图片中行人姿态信息以及目标图片中行人外观特征,最终生成图片、源图以及目标图三者大小一致。
本发明的具体实施方式中,如说明书附图1所示,该生成的行人重识别图片大小为256×128时,一种基于生成对抗网络的自定义高分辨率行人图片自动生成方法具体包括以下步骤:
(1)对训练风格迁移生成对抗网络用的行人图片数据集进行预处理需要先对原始包含行人的图片进行随机行人区域裁剪以及缩放,缩放后的行人图片均为8位、单通道、大小为256×128像素(N=8),行人面积与背景面积之比大约为6:1,之后再对缩放后的图片进行增加噪声以及区域遮挡处理,最终用来训练的行人图片数为20000张,男女图像均为10000张,如说明书附图2所示。
(2)将由步骤(1)得到的预处理后的行人图片数据集输入OpenPose姿态特征提取网络以及ResNet50外观特征提取网络分别进行姿态特征提取以及外观特征提取,OpenPose与ResNet50均采用训练好的预训练模型,可直接用来进行行人身体关键点以及外观特征提取。
(3)为了迁移生成具有真实情感的行人图片,以多区域图像迁移生成对抗网络(StarGAN)为基础构建星型图像迁移生成对抗网络模型,如说明书附图3所示,具体步骤如下:
(3.1)先选取一成对的源行人图片与目标行人图片,将由步骤(1)得到的预处理后的源行人图片以及由步骤(2)得到的对应的源行人图片的外观特征连同由步骤(2)得到的目标行人图片的姿态特征输入StarGAN中的生成器来生成与源行人同外观、与目标行人同姿态的新生成图;
(3.2)将由(3.1)得到的新生成图以及与由步骤(2)得到的源行人图片所对应的姿态特征以及外观特征一起重新输入StarGAN中的生成器中来重构源行人图片;
(3.3)判断步骤(3.2)中的重构行人图片的重构损失,为了使步骤(3.2)中重构的图片和原始的输入的源行人图片尽可能相似,此处用到的loss如下:
其中,Lrec为将生成的图像和x计算1范数差,m=16为每批采样的行人图像数,x为源行人图像,c为源行人图片的外观特征以及目标行人图像姿态特征拼接向量,cγ为目标行人图片的外观特征以及目标行人图像姿态特征拼接向量,G为生成的数据。
(3.4)将由步骤(3.1)得到的新生成图给判别器,对抗网络一方面判断这张图的真假,另外一方面还要判断出这张图的外观特征是否与目标行人图片一致,此处用到的分类损失如下:
其中,为优化对抗网络损失,m=16为每批采样的行人图像数,Dcls(cγ|x)为对抗网络对源图片计算得到的域标签概率分布,x为源行人图像,cγ为目标行人图片的外观特征以及目标行人图像姿态特征拼接向量。
其中,为优化生成网络损失,m=16为每批采样的行人图像数,Dcls(c|G(x,c)为对抗网络对生成图片计算得到的域标签概率分布,x为源行人图像,c为源行人图片的外观特征以及目标行人图像姿态特征拼接向量。
(3.5)普通的生成对抗网络的对抗损失如下:
其中,m=16为每批采样的行人图像数,x为源行人图像,c为源行人图片的外观特征以及目标行人图像姿态特征拼接向量,G为生成的数据,D(G(xi))为对抗网络判断真实的数据为真的概率,D(G(xi,ci))为对抗网络判断生成的数据为真的概率。
最终总体损失即为上述三种损失之和:
其中,LDtotal为总体判别损失,LGtotal为总体生成损失。
生成网络包含5次卷积以及4次空洞卷积、批归一化处理以及ReLU激活处理,对抗网络包含5次卷积、批归一化处理以及负斜率为0.2的Leaky ReLU激活处理。
(4)利用步骤(3)构建的以StarGAN为基础的图像迁移生成对抗网络,将成对的训练用源行人图片、目标行人图片以及对应的姿态特征以及外观特征输入网络进行训练,训练过程中,使用ADAM梯度优化方案训练生成网络与对抗网络,生成网络与对抗网络每批采样16个虹膜图像,训练批次均为100,学习率均为0.0001,β1与β2分别为0.5与0.999。
(5)训练完成后,将预训练姿态特征提取网络、外观特征提取网络以及最终的行人生成网络结合形成最终的行人生成网络。
(6)将源行人重识别图片以及目标图片输入行人生成网络,生成图片大小为256×128像素,样式由源迁移至目标的行人图片,生成的行人图像保留了源图像外观特征,但姿态特征与目标行人图像相同。
采用了本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法,由于其采用深度学习技术,利用真实行人图片数据来对风格迁移生成对抗网络进行训练,并且将姿态特征和外观特征建立联系,得到了可以进行风格迁移的行人的生成网络。本发明的核心就在于整体方法的高效性与灵活性:可以使用在任意数据集上训练得到的任意特征提取预训练网络以及姿态提取预训练网络来对进行行人特征提取;最终得到的行人生成网络无需额外输入行人标签,并且生成的行人重识别图片清晰、真实,可供训练以及检测验证使用。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。
Claims (8)
1.一种基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的方法包括以下步骤:
(1)对训练用的行人图片数据集进行预处理;
(2)将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;
(3)基于StarGAN网络模型构建行人重识别图片,自动生成风格迁移网络;
(4)将训练用行人图片以及对应的姿态特征和外观特征输入风格迁移网络,并进行训练;
(5)将姿态特征提取网络以及外观特征提取网络以及行人生成网络结合形成最终的行人生成网络;
(6)将源行人重识别图片和目标图片输入行人生成网络生成样式由源迁移至目标的行人图片;
所述的步骤(3)具体包括以下步骤:
(3.1)选取一成对的源行人图片与目标行人图片,将由源行人图片以及对应的外观特征连同目标行人图片的姿态特征,输入生成器生成与源行人具有相同外观、与目标行人具有相同姿态的新生成图;
(3.2)将新生成图以及与源行人图片所对应的姿态特征以及外观特征均重新输入生成器中重构源行人图片;
(3.3)判断的重构行人图片的重构损失,处理重构的图片和原始的输入的源行人图片使两者尽可能相似;
(3.4)将新生成图传输给判别器,对抗网络判断图的真假,以及图的外观特征与目标行人图片是否一致,计算优化对抗网络损失;
(3.5)计算生成对抗网络的对抗损失。
2.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(1)具体包括以下步骤:
(1.1)对原始包含行人的图片进行随机行人区域裁剪以及缩放;
(1.2)对缩放后的图片进行增加噪声以及区域遮挡处理。
3.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(1)中预处理操作后的行人图片为8位、单通道、大小为2N×2N-1像素的图片,其中,N的取值为大于等于6且小于等于9的正整数。
4.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(2)中的姿态特征提取网络以及外观特征提取网络为通用预训练模型。
5.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(4)的训练操作具体包括以下步骤:
使用ADAM梯度优化方案训练生成网络与对抗网络。
6.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(4)中的姿态特征以及外观特征通过向量拼接方式与对应行人图片输入至风格迁移网络,并且将源图与目标图作为匹配进行训练。
7.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(5)具体为:
去掉原始训练网络中对抗网络的部分,保存其它网络结构。
8.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(5)中姿态特征提取网络以及外观特征提取网络和步骤(2)中的姿态特征提取网络以及外观特征提取网络相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010408231.1A CN111597978B (zh) | 2020-05-14 | 2020-05-14 | 基于StarGAN网络模型实现行人重识别图片自动生成的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010408231.1A CN111597978B (zh) | 2020-05-14 | 2020-05-14 | 基于StarGAN网络模型实现行人重识别图片自动生成的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111597978A CN111597978A (zh) | 2020-08-28 |
CN111597978B true CN111597978B (zh) | 2023-04-07 |
Family
ID=72183726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010408231.1A Active CN111597978B (zh) | 2020-05-14 | 2020-05-14 | 基于StarGAN网络模型实现行人重识别图片自动生成的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111597978B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112395971A (zh) * | 2020-11-16 | 2021-02-23 | 公安部第三研究所 | 基于StarGAN的不同量化光照及角度条件下人脸测试图像生成方法、应用及存储介质 |
CN112966647A (zh) * | 2021-03-25 | 2021-06-15 | 东北林业大学 | 一种基于逐层聚类及增强判别的行人重识别方法 |
CN115439915A (zh) * | 2022-10-12 | 2022-12-06 | 首都师范大学 | 区域编码和样本平衡优化的课堂参与度识别方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537136A (zh) * | 2018-03-19 | 2018-09-14 | 复旦大学 | 基于姿态归一化图像生成的行人重识别方法 |
WO2019015466A1 (zh) * | 2017-07-17 | 2019-01-24 | 广州广电运通金融电子股份有限公司 | 人证核实的方法及装置 |
CN110415309A (zh) * | 2019-06-26 | 2019-11-05 | 公安部第三研究所 | 基于生成对抗网络实现指纹图片自动生成的方法 |
CN110427813A (zh) * | 2019-06-24 | 2019-11-08 | 中国矿业大学 | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 |
-
2020
- 2020-05-14 CN CN202010408231.1A patent/CN111597978B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019015466A1 (zh) * | 2017-07-17 | 2019-01-24 | 广州广电运通金融电子股份有限公司 | 人证核实的方法及装置 |
CN108537136A (zh) * | 2018-03-19 | 2018-09-14 | 复旦大学 | 基于姿态归一化图像生成的行人重识别方法 |
CN110427813A (zh) * | 2019-06-24 | 2019-11-08 | 中国矿业大学 | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 |
CN110415309A (zh) * | 2019-06-26 | 2019-11-05 | 公安部第三研究所 | 基于生成对抗网络实现指纹图片自动生成的方法 |
Non-Patent Citations (1)
Title |
---|
非重叠域行人再识别算法研究;何晴等;《信息技术》(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111597978A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764065B (zh) | 一种行人重识别特征融合辅助学习的方法 | |
CN109815919B (zh) | 一种人群计数方法、网络、系统和电子设备 | |
CN111597978B (zh) | 基于StarGAN网络模型实现行人重识别图片自动生成的方法 | |
JP4755202B2 (ja) | 顔特徴の検出方法 | |
Lee et al. | Intra-class variation reduction using training expression images for sparse representation based facial expression recognition | |
CN109522853B (zh) | 面向监控视频的人脸检测与搜索方法 | |
CN108960059A (zh) | 一种视频动作识别方法及装置 | |
CN112766160A (zh) | 基于多级属性编码器和注意力机制的人脸替换方法 | |
CN112132197B (zh) | 模型训练、图像处理方法、装置、计算机设备和存储介质 | |
CN112530019B (zh) | 三维人体重建方法、装置、计算机设备和存储介质 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN110458235B (zh) | 一种视频中运动姿势相似度比对方法 | |
Haq et al. | Boosting the face recognition performance of ensemble based LDA for pose, non-uniform illuminations, and low-resolution images | |
CN112464730B (zh) | 一种基于域无关前景特征学习的行人再识别方法 | |
CN111563404B (zh) | 用于基于视频的人再识别的全局局部时间表示方法 | |
WO2022120843A1 (zh) | 三维人体重建方法、装置、计算机设备和存储介质 | |
CN112560618B (zh) | 基于骨架和视频特征融合的行为分类方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN114120389A (zh) | 网络训练及视频帧处理的方法、装置、设备及存储介质 | |
Ullah et al. | Human action recognition in videos using stable features | |
Yang et al. | A robust iris segmentation using fully convolutional network with dilated convolutions | |
CN107563319A (zh) | 一种基于图像的亲子间人脸相似性度量计算方法 | |
Cordea et al. | Real-time 2 (1/2)-D head pose recovery for model-based video-coding | |
CN116824641B (zh) | 姿态分类方法、装置、设备和计算机存储介质 | |
CN112487926A (zh) | 一种基于时空图卷积网络的景区投喂行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |