CN111597978B - 基于StarGAN网络模型实现行人重识别图片自动生成的方法 - Google Patents

基于StarGAN网络模型实现行人重识别图片自动生成的方法 Download PDF

Info

Publication number
CN111597978B
CN111597978B CN202010408231.1A CN202010408231A CN111597978B CN 111597978 B CN111597978 B CN 111597978B CN 202010408231 A CN202010408231 A CN 202010408231A CN 111597978 B CN111597978 B CN 111597978B
Authority
CN
China
Prior art keywords
pedestrian
network
picture
appearance
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010408231.1A
Other languages
English (en)
Other versions
CN111597978A (zh
Inventor
王立
洪丽娟
苏永生
刘辛宇
华寅
张伟
冯宗伟
马洪娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Third Research Institute of the Ministry of Public Security
Original Assignee
Third Research Institute of the Ministry of Public Security
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Third Research Institute of the Ministry of Public Security filed Critical Third Research Institute of the Ministry of Public Security
Priority to CN202010408231.1A priority Critical patent/CN111597978B/zh
Publication of CN111597978A publication Critical patent/CN111597978A/zh
Application granted granted Critical
Publication of CN111597978B publication Critical patent/CN111597978B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于StarGAN网络模型实现行人重识别图片自动生成的方法,包括对训练用的行人图片数据集进行预处理;将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;基于StarGAN网络模型构建行人重识别图片,自动生成风格迁移网络;将训练用行人图片以及对应的姿态特征和外观特征输入风格迁移网络,并进行训练;形成最终的行人生成网络。采用了本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法,可以使用在任意数据集上训练得到的任意特征提取预训练网络以及姿态提取预训练网络来对进行行人特征提取,生成的行人重识别图片清晰、真实。

Description

基于StarGAN网络模型实现行人重识别图片自动生成的方法
技术领域
本发明涉及计算机视觉技术领域,尤其涉及生成对抗网络的图像生成技术领域,具体是指一种基于StarGAN网络模型实现行人重识别图片自动生成的方法。
背景技术
目前,行人重识别技术(Person Re-identification也称目标人再识别,简称为ReID)主要基于视频图像搜索。在监控视频中,由于相机分辨率和拍摄角度的缘故,通常无法得到质量非常高的人脸图片。当人脸识别失效的情况下,基于整体目标行人特征的重识别就成为了一个非常重要的替代品。它有一个非常重要的特性就是跨摄像头,所以通常评价行人重识别产品性能的时候,是要检索出不同摄像头下的相同目标人图片。目前,行人重识别的研究以及检验检测均面临着行人重识别图片数据集短缺这一问题,诸如图像分辨率低、视角变化、姿态变化、光线变化以及遮挡等都会给数据集构建带来很大困难。
1)监控视频的画面一般比较模糊,分辨率也比较低;
2)行人重识别的图像往往采自于不同的摄像机,由于拍摄场景、摄像参数不同,行人重识别数据集构建一般存在光照变化及视角变化等问题;
3)进行重识别的目标人图像可能拍摄于不同的时间,目标人姿态、衣着会有不同程度的改变;
4)在不同的光照条件下,目标人的外观特征也会有很大的差异。
发明内容
本发明的目的是克服了上述现有技术的缺点,提供了一种满足清晰、真实、适用范围较为广泛的基于StarGAN网络模型实现行人重识别图片自动生成的方法。
为了实现上述目的,本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法如下:
该基于StarGAN网络模型实现行人重识别图片自动生成的方法,其主要特点是,所述的方法包括以下步骤:
(1)对训练用的行人图片数据集进行预处理;
(2)将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;
(3)基于StarGAN网络模型构建行人重识别图片,自动生成风格迁移网络;
(4)将训练用行人图片以及对应的姿态特征和外观特征输入风格迁移网络,并进行训练;
(5)将姿态特征提取网络以及外观特征提取网络以及行人生成网络结合形成最终的行人生成网络;
(6)将源行人重识别图片和目标图片输入行人生成网络生成样式由源迁移至目标的行人图片。
较佳地,所述的步骤(1)具体包括以下步骤:
(1.1)对原始包含行人的图片进行随机行人区域裁剪以及缩放;
(1.2)对缩放后的图片进行增加噪声以及区域遮挡处理。
较佳地,所述的步骤(1)中预处理操作后的行人图片为8位、单通道、大小为2N×2N-1像素的图片,其中,N的取值为大于等于6且小于等于9的正整数。
较佳地,所述的步骤(2)中的姿态特征提取网络以及外观特征提取网络为通用预训练模型。
较佳地,所述的步骤(3)具体包括以下步骤:
(3.1)选取一成对的源行人图片与目标行人图片,将由源行人图片以及对应的外观特征连同目标行人图片的姿态特征,输入生成器生成与源行人具有相同外观、与目标行人具有相同姿态的新生成图;
(3.2)将新生成图以及与源行人图片所对应的姿态特征以及外观特征均重新输入生成器中重构源行人图片;
(3.3)判断的重构行人图片的重构损失,处理重构的图片和原始的输入的源行人图片使两者尽可能相似;
(3.4)将新生成图传输给判别器,对抗网络判断图的真假,以及图的外观特征与目标行人图片是否一致,计算优化对抗网络损失;
(3.5)计算生成对抗网络的对抗损失。
较佳地,所述的步骤(4)的训练操作具体包括以下步骤:
使用ADAM梯度优化方案训练生成网络与对抗网络。
较佳地,所述的步骤(4)中的姿态特征以及外观特征通过向量拼接方式与对应行人图片输入至风格迁移网络,并且将源图与目标图作为匹配进行训练。
较佳地,所述的步骤(5)具体为:
去掉原始训练网络中对抗网络的部分,保存其它网络结构。
较佳地,所述的步骤(5)中姿态特征提取网络以及外观特征提取网络和步骤(2)中的姿态特征提取网络以及外观特征提取网络相同。
采用了本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法,由于其采用深度学习技术,利用真实行人图片数据来对风格迁移生成对抗网络进行训练,并且将姿态特征和外观特征建立联系,得到了可以进行风格迁移的行人的生成网络。本发明的核心就在于整体方法的高效性与灵活性:可以使用在任意数据集上训练得到的任意特征提取预训练网络以及姿态提取预训练网络来对进行行人特征提取;最终得到的行人生成网络无需额外输入行人标签,并且生成的行人重识别图片清晰、真实,可供训练以及检测验证使用。
附图说明
图1为本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法的流程图。
图2为本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法的行人图像预处理流程示意图。
图3为本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法的基于StarGAN构建的行人重识别图片自动生成风格迁移网络结构图。
图4为本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法的具体实施例示意图。
具体实施方式
为了能够更清楚地描述本发明的技术内容,下面结合具体实施例来进行进一步的描述。
本发明的该基于StarGAN网络模型实现行人重识别图片自动生成的方法,其中包括以下步骤:
(1)对训练用的行人图片数据集进行预处理;
(1.1)对原始包含行人的图片进行随机行人区域裁剪以及缩放;
(1.2)对缩放后的图片进行增加噪声以及区域遮挡处理;
(2)将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;
(3)基于StarGAN网络模型构建行人重识别图片,自动生成风格迁移网络;
(3.1)选取一成对的源行人图片与目标行人图片,将由源行人图片以及对应的外观特征连同目标行人图片的姿态特征,输入生成器生成与源行人具有相同外观、与目标行人具有相同姿态的新生成图;
(3.2)将新生成图以及与源行人图片所对应的姿态特征以及外观特征均重新输入生成器中重构源行人图片;
(3.3)判断的重构行人图片的重构损失,处理重构的图片和原始的输入的源行人图片使两者尽可能相似;
(3.4)将新生成图传输给判别器,对抗网络判断图的真假,以及图的外观特征与目标行人图片是否一致,计算优化对抗网络损失;
(3.5)计算生成对抗网络的对抗损失;
(4)将训练用行人图片以及对应的姿态特征和外观特征输入风格迁移网络,并进行训练;使用ADAM梯度优化方案训练生成网络与对抗网络;
(5)将姿态特征提取网络以及外观特征提取网络以及行人生成网络结合形成最终的行人生成网络;
去掉原始训练网络中对抗网络的部分,保存其它网络结构;
(6)将源行人重识别图片和目标图片输入行人生成网络生成样式由源迁移至目标的行人图片。
作为本发明的优选实施方式,所述的步骤(1)中预处理操作后的行人图片为8位、单通道、大小为2N×2N-1像素的图片,其中,N的取值为大于等于6且小于等于9的正整数。
作为本发明的优选实施方式,所述的步骤(2)中的姿态特征提取网络以及外观特征提取网络为通用预训练模型。
作为本发明的优选实施方式,所述的步骤(4)中的姿态特征以及外观特征通过向量拼接方式与对应行人图片输入至风格迁移网络,并且将源图与目标图作为匹配进行训练。
作为本发明的优选实施方式,所述的步骤(5)中姿态特征提取网络以及外观特征提取网络和步骤(2)中的姿态特征提取网络以及外观特征提取网络相同。
本发明的具体实施方式中,包括对训练用的行人图片数据集进行预处理;将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;基于StarGAN构建行人重识别图片自动生成风格迁移网络;将训练用行人图片以及对应的姿态特征以及外观特征输入风格迁移网络进行训练;将姿态特征提取网络、外观特征提取网络以及最终的行人生成网络结合形成最终的行人生成网络;将源行人重识别图片以及目标图片输入行人生成网络生成样式由源迁移至目标的行人图片。采用了本发明的方法,最终由行人生成网络可进行不同行人图片样式的迁移来生成逼真的行人图片,在行人重识别训练数据集构建以及行人重识别技术检验检测领域都有广阔的应用前景。
该基于StarGAN实现行人重识别图片自动生成的方法,其主要特点是,方法包括以下步骤:
(1)对训练用的行人图片数据集进行预处理;
(2)将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;
(3)基于StarGAN构建行人重识别图片自动生成风格迁移网络;
(4)将训练用行人图片以及对应的姿态特征以及外观特征输入风格迁移网络进行训练;
(5)将姿态特征提取网络、外观特征提取网络以及最终的行人生成网络结合形成最终的行人生成网络;
(6)将源行人重识别图片以及目标图片输入行人生成网络生成样式由源迁移至目标的行人图片。
步骤(1)中的预处理包括随机行人区域裁剪、缩放、增加噪声、区域遮挡。
步骤(1)中预处理后的行人图片为8位、单通道、大小为2N×2N-1像素的图片。
N的取值为大于等于6、小于等于9的正整数。
步骤(2)中的姿态特征提取网络以及外观特征提取网络为通用预训练模型。
步骤(3)具体为:
生成网络包含N+1次卷积、批归一化处理以及激活处理;
对抗网络包含N-3次卷积、批归一化处理以及激活处理。
步骤(4)中姿态特征以及外观特征采用向量拼接方式与对应行人图片输入至风格迁移网络,并且将源图与目标图作为匹配进行训练。
步骤(5)具体为:
风格迁移网络训练完成后,去掉原始训练网络中对抗网络部分,其它网络结构保存。
步骤(5)中姿态特征提取网络、外观特征提取网络与步骤(2)中的姿态特征提取网络、外观特征提取网络相同。
步骤(6)中最终生成的行人图片保留了源图片中行人姿态信息以及目标图片中行人外观特征,最终生成图片、源图以及目标图三者大小一致。
本发明的具体实施方式中,如说明书附图1所示,该生成的行人重识别图片大小为256×128时,一种基于生成对抗网络的自定义高分辨率行人图片自动生成方法具体包括以下步骤:
(1)对训练风格迁移生成对抗网络用的行人图片数据集进行预处理需要先对原始包含行人的图片进行随机行人区域裁剪以及缩放,缩放后的行人图片均为8位、单通道、大小为256×128像素(N=8),行人面积与背景面积之比大约为6:1,之后再对缩放后的图片进行增加噪声以及区域遮挡处理,最终用来训练的行人图片数为20000张,男女图像均为10000张,如说明书附图2所示。
(2)将由步骤(1)得到的预处理后的行人图片数据集输入OpenPose姿态特征提取网络以及ResNet50外观特征提取网络分别进行姿态特征提取以及外观特征提取,OpenPose与ResNet50均采用训练好的预训练模型,可直接用来进行行人身体关键点以及外观特征提取。
(3)为了迁移生成具有真实情感的行人图片,以多区域图像迁移生成对抗网络(StarGAN)为基础构建星型图像迁移生成对抗网络模型,如说明书附图3所示,具体步骤如下:
(3.1)先选取一成对的源行人图片与目标行人图片,将由步骤(1)得到的预处理后的源行人图片以及由步骤(2)得到的对应的源行人图片的外观特征连同由步骤(2)得到的目标行人图片的姿态特征输入StarGAN中的生成器来生成与源行人同外观、与目标行人同姿态的新生成图;
(3.2)将由(3.1)得到的新生成图以及与由步骤(2)得到的源行人图片所对应的姿态特征以及外观特征一起重新输入StarGAN中的生成器中来重构源行人图片;
(3.3)判断步骤(3.2)中的重构行人图片的重构损失,为了使步骤(3.2)中重构的图片和原始的输入的源行人图片尽可能相似,此处用到的loss如下:
Figure BDA0002492214280000061
其中,Lrec为将生成的图像和x计算1范数差,m=16为每批采样的行人图像数,x为源行人图像,c为源行人图片的外观特征以及目标行人图像姿态特征拼接向量,cγ为目标行人图片的外观特征以及目标行人图像姿态特征拼接向量,G为生成的数据。
(3.4)将由步骤(3.1)得到的新生成图给判别器,对抗网络一方面判断这张图的真假,另外一方面还要判断出这张图的外观特征是否与目标行人图片一致,此处用到的分类损失如下:
Figure BDA0002492214280000071
其中,
Figure BDA0002492214280000072
为优化对抗网络损失,m=16为每批采样的行人图像数,Dcls(cγ|x)为对抗网络对源图片计算得到的域标签概率分布,x为源行人图像,cγ为目标行人图片的外观特征以及目标行人图像姿态特征拼接向量。
Figure BDA0002492214280000073
其中,
Figure BDA0002492214280000074
为优化生成网络损失,m=16为每批采样的行人图像数,Dcls(c|G(x,c)为对抗网络对生成图片计算得到的域标签概率分布,x为源行人图像,c为源行人图片的外观特征以及目标行人图像姿态特征拼接向量。
(3.5)普通的生成对抗网络的对抗损失如下:
Figure BDA0002492214280000075
其中,m=16为每批采样的行人图像数,x为源行人图像,c为源行人图片的外观特征以及目标行人图像姿态特征拼接向量,G为生成的数据,D(G(xi))为对抗网络判断真实的数据为真的概率,D(G(xi,ci))为对抗网络判断生成的数据为真的概率。
最终总体损失即为上述三种损失之和:
Figure BDA0002492214280000076
Figure BDA0002492214280000077
其中,LDtotal为总体判别损失,LGtotal为总体生成损失。
生成网络包含5次卷积以及4次空洞卷积、批归一化处理以及ReLU激活处理,对抗网络包含5次卷积、批归一化处理以及负斜率为0.2的Leaky ReLU激活处理。
(4)利用步骤(3)构建的以StarGAN为基础的图像迁移生成对抗网络,将成对的训练用源行人图片、目标行人图片以及对应的姿态特征以及外观特征输入网络进行训练,训练过程中,使用ADAM梯度优化方案训练生成网络与对抗网络,生成网络与对抗网络每批采样16个虹膜图像,训练批次均为100,学习率均为0.0001,β1与β2分别为0.5与0.999。
(5)训练完成后,将预训练姿态特征提取网络、外观特征提取网络以及最终的行人生成网络结合形成最终的行人生成网络。
(6)将源行人重识别图片以及目标图片输入行人生成网络,生成图片大小为256×128像素,样式由源迁移至目标的行人图片,生成的行人图像保留了源图像外观特征,但姿态特征与目标行人图像相同。
采用了本发明的基于StarGAN网络模型实现行人重识别图片自动生成的方法,由于其采用深度学习技术,利用真实行人图片数据来对风格迁移生成对抗网络进行训练,并且将姿态特征和外观特征建立联系,得到了可以进行风格迁移的行人的生成网络。本发明的核心就在于整体方法的高效性与灵活性:可以使用在任意数据集上训练得到的任意特征提取预训练网络以及姿态提取预训练网络来对进行行人特征提取;最终得到的行人生成网络无需额外输入行人标签,并且生成的行人重识别图片清晰、真实,可供训练以及检测验证使用。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。

Claims (8)

1.一种基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的方法包括以下步骤:
(1)对训练用的行人图片数据集进行预处理;
(2)将预处理后的图片数据集输入姿态特征提取网络以及外观特征提取网络分别进行姿态特征提取以及外观特征提取;
(3)基于StarGAN网络模型构建行人重识别图片,自动生成风格迁移网络;
(4)将训练用行人图片以及对应的姿态特征和外观特征输入风格迁移网络,并进行训练;
(5)将姿态特征提取网络以及外观特征提取网络以及行人生成网络结合形成最终的行人生成网络;
(6)将源行人重识别图片和目标图片输入行人生成网络生成样式由源迁移至目标的行人图片;
所述的步骤(3)具体包括以下步骤:
(3.1)选取一成对的源行人图片与目标行人图片,将由源行人图片以及对应的外观特征连同目标行人图片的姿态特征,输入生成器生成与源行人具有相同外观、与目标行人具有相同姿态的新生成图;
(3.2)将新生成图以及与源行人图片所对应的姿态特征以及外观特征均重新输入生成器中重构源行人图片;
(3.3)判断的重构行人图片的重构损失,处理重构的图片和原始的输入的源行人图片使两者尽可能相似;
(3.4)将新生成图传输给判别器,对抗网络判断图的真假,以及图的外观特征与目标行人图片是否一致,计算优化对抗网络损失;
(3.5)计算生成对抗网络的对抗损失。
2.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(1)具体包括以下步骤:
(1.1)对原始包含行人的图片进行随机行人区域裁剪以及缩放;
(1.2)对缩放后的图片进行增加噪声以及区域遮挡处理。
3.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(1)中预处理操作后的行人图片为8位、单通道、大小为2N×2N-1像素的图片,其中,N的取值为大于等于6且小于等于9的正整数。
4.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(2)中的姿态特征提取网络以及外观特征提取网络为通用预训练模型。
5.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(4)的训练操作具体包括以下步骤:
使用ADAM梯度优化方案训练生成网络与对抗网络。
6.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(4)中的姿态特征以及外观特征通过向量拼接方式与对应行人图片输入至风格迁移网络,并且将源图与目标图作为匹配进行训练。
7.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(5)具体为:
去掉原始训练网络中对抗网络的部分,保存其它网络结构。
8.根据权利要求1所述的基于StarGAN网络模型实现行人重识别图片自动生成的方法,其特征在于,所述的步骤(5)中姿态特征提取网络以及外观特征提取网络和步骤(2)中的姿态特征提取网络以及外观特征提取网络相同。
CN202010408231.1A 2020-05-14 2020-05-14 基于StarGAN网络模型实现行人重识别图片自动生成的方法 Active CN111597978B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010408231.1A CN111597978B (zh) 2020-05-14 2020-05-14 基于StarGAN网络模型实现行人重识别图片自动生成的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010408231.1A CN111597978B (zh) 2020-05-14 2020-05-14 基于StarGAN网络模型实现行人重识别图片自动生成的方法

Publications (2)

Publication Number Publication Date
CN111597978A CN111597978A (zh) 2020-08-28
CN111597978B true CN111597978B (zh) 2023-04-07

Family

ID=72183726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010408231.1A Active CN111597978B (zh) 2020-05-14 2020-05-14 基于StarGAN网络模型实现行人重识别图片自动生成的方法

Country Status (1)

Country Link
CN (1) CN111597978B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395971A (zh) * 2020-11-16 2021-02-23 公安部第三研究所 基于StarGAN的不同量化光照及角度条件下人脸测试图像生成方法、应用及存储介质
CN112966647A (zh) * 2021-03-25 2021-06-15 东北林业大学 一种基于逐层聚类及增强判别的行人重识别方法
CN115439915A (zh) * 2022-10-12 2022-12-06 首都师范大学 区域编码和样本平衡优化的课堂参与度识别方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537136A (zh) * 2018-03-19 2018-09-14 复旦大学 基于姿态归一化图像生成的行人重识别方法
WO2019015466A1 (zh) * 2017-07-17 2019-01-24 广州广电运通金融电子股份有限公司 人证核实的方法及装置
CN110415309A (zh) * 2019-06-26 2019-11-05 公安部第三研究所 基于生成对抗网络实现指纹图片自动生成的方法
CN110427813A (zh) * 2019-06-24 2019-11-08 中国矿业大学 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019015466A1 (zh) * 2017-07-17 2019-01-24 广州广电运通金融电子股份有限公司 人证核实的方法及装置
CN108537136A (zh) * 2018-03-19 2018-09-14 复旦大学 基于姿态归一化图像生成的行人重识别方法
CN110427813A (zh) * 2019-06-24 2019-11-08 中国矿业大学 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法
CN110415309A (zh) * 2019-06-26 2019-11-05 公安部第三研究所 基于生成对抗网络实现指纹图片自动生成的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
非重叠域行人再识别算法研究;何晴等;《信息技术》(第07期);全文 *

Also Published As

Publication number Publication date
CN111597978A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
CN108764065B (zh) 一种行人重识别特征融合辅助学习的方法
CN109815919B (zh) 一种人群计数方法、网络、系统和电子设备
CN111597978B (zh) 基于StarGAN网络模型实现行人重识别图片自动生成的方法
JP4755202B2 (ja) 顔特徴の検出方法
CN109815826B (zh) 人脸属性模型的生成方法及装置
CA2934514C (en) System and method for identifying faces in unconstrained media
CN109522853B (zh) 面向监控视频的人脸检测与搜索方法
CN110210276A (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
CN112766160A (zh) 基于多级属性编码器和注意力机制的人脸替换方法
CN112530019B (zh) 三维人体重建方法、装置、计算机设备和存储介质
CN112150493A (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN112464730B (zh) 一种基于域无关前景特征学习的行人再识别方法
CN111563404B (zh) 用于基于视频的人再识别的全局局部时间表示方法
CN110458235B (zh) 一种视频中运动姿势相似度比对方法
CN111639564A (zh) 一种基于多注意力异构网络的视频行人重识别方法
Ullah et al. Human action recognition in videos using stable features
CN114120389A (zh) 网络训练及视频帧处理的方法、装置、设备及存储介质
CN113221770A (zh) 基于多特征混合学习的跨域行人重识别方法及系统
CN116824641B (zh) 姿态分类方法、装置、设备和计算机存储介质
CN112560618B (zh) 基于骨架和视频特征融合的行为分类方法
CN113591825A (zh) 基于超分辨网络的目标搜索重建方法、装置及存储介质
CN112487926A (zh) 一种基于时空图卷积网络的景区投喂行为识别方法
CN110766093A (zh) 一种基于多帧特征融合的视频目标重识别方法
Tong et al. Unconstrained Facial expression recognition based on feature enhanced CNN and cross-layer LSTM
Liu et al. A shadow imaging bilinear model and three-branch residual network for shadow removal

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant