CN112613411B - 基于生成对抗网络的行人重识别数据集姿态数据增广方法 - Google Patents
基于生成对抗网络的行人重识别数据集姿态数据增广方法 Download PDFInfo
- Publication number
- CN112613411B CN112613411B CN202011559996.1A CN202011559996A CN112613411B CN 112613411 B CN112613411 B CN 112613411B CN 202011559996 A CN202011559996 A CN 202011559996A CN 112613411 B CN112613411 B CN 112613411B
- Authority
- CN
- China
- Prior art keywords
- picture
- posture
- training
- vector
- countermeasure network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明公开了一种基于生成对抗网络的行人重识别数据集姿态数据增广方法。图像采集并标注获得训练集,建立包含生成对抗网络和姿态分类器的网络;训练所构建的生成对抗网络和姿态分类器;构建虚拟数据集,构建编码器,使用虚拟数据集训练所构建的编码器;将虚拟数据集经线性SVM算法处理后获得超平面的法向量;训练结束后,对于任意需要进行姿态数据增广的目标场景的待测图片,利用编码器、生成对抗网络和法向量共同进行姿态数据的增广。本发明无需行人图片的类别信息,只需要行人图像的姿态信息,调整图中人物的姿态,在行人重识别数据集中行人类别缺失的情况下进行姿态变换,有着较好的数据增广能力。
Description
技术领域
本发明属于计算机视觉技术领域的一种图像数据增广方法,尤其是涉及一种基于生成对抗网络的行人重识别数据集姿态数据增广方法。
背景技术
行人重识别人物的目的是在短时间大规模场景中快速定位某一个行人的轨迹。由于行人重识别大规模应用于自动驾驶、视频监控、安防等方面,近几年这一任务吸引了工业界和学术界的广泛关注和研究。
在行人重识别任务中,由于行人数据获取的难度大、标注代价高,行人重识别数据集的丰富程度和规模一直制约着行人重识别的效果。为了缓解这一问题,许多针对行人重识别数据集的增广方法被提出,其中人物的姿态的数据增广获得了广泛的关注。
如Qian X等人发表在《Proceedings of the European conference on computervision》的《Pose-normalized image generation for person re-identification》以及Liu J等人发表在《Proceedings of the IEEE Conference on Computer Vision andPattern Recognition》的《Pose transferrable person re-identification》都是行之有效地针对人物姿态信息进行数据增广的方法。
现有的针对人物姿态信息进行数据增广的方法依赖于人物的类别,而人物的类别恰恰是行人数据集中获取难度最高的一类信息。
发明内容
为了解决针对人物姿态信息进行数据增广的方法依赖于人物的类别的问题,本发明提供了一种基于生成对抗网络的行人重识别数据集姿态数据增广方法,以生成对抗网络来承担数据增广的工作,利用线性SVM算法和生成对抗网络可解释性原理发掘生成对抗网络中蕴含的仅影响人物姿态的超平面;利用编码器将现实场景的图片转换为高维向量,再利用超平面对向量进行插补,以获取一系列向量。这一系列向量能够被生成对抗网络解码为行人图片,所表现出的就是人物的姿态发生了改变,而人物的类别信息不变。
本发明是针对只有姿态信息的针对人物姿态进行增广的行人重识别数据集增广方法。
本发明的技术方案如下:
(1)对需要进行姿态数据增广的目标场景进行图像的采集,并标注图像中的姿态类别,获得训练集,建立包含生成对抗网络和姿态分类器的网络;
(2)基于步骤(1)中建立的训练集,训练所构建的生成对抗网络,训练过程使用自适应动量估计算法(Adam);
(3)基于步骤(1)中建立的训练集,训练所构建的姿态分类器,训练过程使用自适应动量估计算法(Adam);
(4)使用步骤(2)中训练得到的生成对抗网络中的生成器和步骤(3)中得到的姿态分类器,构建虚拟数据集,虚拟数据集包括随机采样的高斯向量、用高斯向量经生成对抗网络处理获得的图片以及用图片经姿态分类器处理获得的图片对应的姿态类别;
(5)构建编码器,使用步骤(4)中得到的虚拟数据集,训练所构建的编码器,训练过程使用自适应动量估计算法(Adam);
(6)将步骤(4)得到的虚拟数据集经线性SVM算法处理后获得超平面的法向量;
(7)训练结束后,对于任意需要进行姿态数据增广的目标场景的待测图片,利用编码器、生成对抗网络和法向量共同进行姿态数据的增广。
所述的待测图片为带有目标对象的图像,例如可以为行人图片。
所述步骤(1)中,进行标注时,只需标注图像所含目标的姿态类别,无需标注目标类别。
所述步骤(1)中,生成对抗网络包含了相互独立的生成器和判别器,生成器接收随机生成的高斯向量作为输入,输出初始RGB图片;判别器接收生成器输出的初始RGB图片或训练集,输出初始RGB图片或训练集各自的真假标签,真假标签是指输入判别器的图片是否是来自训练集的结果标签,若是,则为真,反之则为假;
姿态分类器包括分类卷积网络结构和连续两层全连接层,在分类卷积网络结构的输出端依次串联两层全连接层,分类卷积网络结构接收生成器输出的初始RGB图片,输出姿态标签。
具体实施中,生成对抗网络选择采用StyleGAN,StyleGAN包含了生成器和判别器,姿态分类器的分类卷积网络结构选择采用ResNet-18。
生成对抗网络中,将生成对抗网络中的生成器的随机噪声输入尺寸修改为4×2,并将生成器的最大步长参数固定为6,使生成器的最终输出图片的尺寸为256×128;判别器不修改。
生成器接收512维的向量作为输入,512维的向量为随机生成的高斯向量,输出尺寸为256×128的RGB图片;判别器接收训练集或生成器输出256×128的RGB图片,输出两个输入各自的真假标签。
姿态分类器中,接收尺寸为256×128的RGB图片作为输入,输出1维向量作为姿态标签。
所述的生成对抗网络和姿态分类器在步骤(2)前均采用ImageNet数据集预先训练,姿态分类器中的分类卷积网络结构以ImageNet数据集训练后的网络参数作为初始值,两层全连接层的参数初始化为标准差为0.01的正态分布。
所述的姿态标签是指正向背向姿态、侧向姿态的分类标签,侧向姿态又分为左侧向姿态和右侧侧向姿态。
所述步骤(3)中,姿态分类器训练时设置以下损失函数:
Loss=-yi log(xi)-(1-yi)log(1-xi)
其中,imgi为来自步骤(1)中构建的训练集的任意图像,yi为第i幅图像imgi的真实姿态标签,imgi表示训练集中的第i幅图像,fview为步骤(3)中所构建的姿态分类器,xi表示第i幅图像imgi的预测姿态标签;
整个姿态分类器的训练通过自适应动量估计算法优化损失函数进行。
所述步骤(4)中,
(4.1)利用生成对抗网络生成虚拟图片:以步骤(2)中训练得到的生成对抗网络作为工具;以随机生成采样自均值为0、方差为1的正态分布的一个高斯向量输入到生成对抗网络的生成器中,输出获得一幅初始RGB图片,初始RGB图片作为行人虚拟图片,由高斯向量和对应的初始RGB图片组成高斯向量-图片对;
(4.2)利用姿态分类器标注虚拟数据集:以步骤(3)中训练得到的姿态分类器作为工具,将高斯向量-图片对中的初始RGB图片输入姿态分类器,输出对应的姿态标签,由高斯向量和对应的初始RGB图片、姿态标签组成高斯向量-图片-姿态对;
(4.3)重复(4.1)过程N次,获取N组向量-图片对和N组高斯向量-图片-姿态对,以N组高斯向量-图片-姿态对作为虚拟数据集。
所述步骤(5)中,
(5.1)构建编码器,编码器包含了编码卷积网络结构和连续两层全连接层,在编码卷积网络结构的输出端依次串联两层全连接层,编码器输入训练集,输出生成器输出的初始RGB图片、512维向量;编码器实现了逆向生成对抗网络中的生成器的功能。
所述的编码器事先也采用ImageNet数据集预先训练,编码卷积网络结构以ImageNet数据集训练后的网络参数作为初始值,两层全连接层的参数初始化为标准差为0.01的正态分布。
具体实施中,编码器接收生成对抗网络的生成器输出的尺寸为256×128的RGB图片作为输入,输出512维向量。
(5.2)训练编码器,以步骤(4)中所构建的虚拟数据集作为编码器的训练数据,编码器的损失函数设置为:
其中,xi为虚拟数据集中第i幅图像通过编码器的输出,yi为虚拟数据集中第i幅图像对应的高斯向量,i表示虚拟数据集中图像的序号。
整个编码器的训练通过自适应动量估计算法优化该损失函数进行。
所述步骤(6)中,以虚拟数据集中的高斯向量和姿态标签作为输入,使用线性SVM算法处理获得超平面的法向量。其中线性SVM算法的惩罚系数C设置为1,停止误差tol设置为0.001。
所述步骤(7)中,
(7.1)将待测图片经过编码器处理获得512维的高斯中间向量,将高斯中间向量作为生成对抗网络的生成器输入,生成对抗网络的生成器能获取尺寸为256×128的中间RGB图片,并建立以下损失函数优化高斯中间向量:
Loss=0.01×Lper+Lpix
其中,vgg表示经ImageNet数据集训练后的vgg-16神经网络中的relu3-3层的输出,relu3-3层的输出指的是vgg-16网络的第10个卷积层后附属的relu层的输出;img表示待测图片;imgg表示生成对抗网络的生成器的输出;Cp,Hp,Wp分别表示vgg-16神经网络中的relu3-3层输出的特征图的通道数、高度和宽度;C,H,W分别表示待测图片的通道数、高度和宽度,其中C=3;
(7.2)使用法向量进行姿态增广:以步骤(6)获得超平面的法向量乘以系数S加上(7.1)获得的优化后的高斯中间向量,获得新向量;
新向量为一系列向量,这一些列向量经过生成对抗网络后即可获得该人物的姿态变换,姿态变换的程度和系数相关。
(7.3)将新向量再作为生成对抗网络的生成器输入,输出获得最终的用于待测图片扩增的新姿态图片。
通过调整(7.2)中的系数S进而调整最终(7.3)新姿态图片中的姿态。不同姿态变化随着系数S的变化,呈现图片中目标对象的不同姿态变化,进而实现了新姿态图片中的不同姿态的实时生成。
本发明具有以下优点:
1、所依赖的数据集无需人物的类别标签。这一特点大大降低了数据集的获取难度和方法适用的广度。
2、数据增广获得的图像数量不受限制。由于生成对抗网络的特性,可以任意采样均值为0,方差为1的高斯噪声,并将其输入生成对抗网络,便可以获得对应的行人图片。而可以任意采样高斯噪声以获得任意数量的图像数量。
本发明用于行人图片的增广,无需行人图片的类别信息,只需要行人图像的姿态信息,即可调整图中人物的姿态,有着较好的针对行人重识别算法的数据增广能力。利用本方法能在行人重识别数据集中行人类别缺失的情况下进行图中的人物的姿态变换,进而增加数据量。
附图说明
图1是本发明的训练流程示意图;
图2是本发明的应用流程示意图;
图3是本发明的一些姿态变化结果图。
具体实施方式
下面结合附图对本发明进行进一步的说明。
本发明的实施例及其实施过程是:
S01,获取需进行目标检测场景下的图像,人工对所有图像进行图像级别的标注,标注上图像中的行人的姿态标签,构成训练集。
生成对抗网络的基础网络模型选择StyleGAN,姿态分类器的基础模型网络选择ResNet-18;修改StyleGAN的生成器的随机噪声输入尺寸为4×2,并将其最大步长参数固定为6,使其最终输出图片的尺寸为256×128;生成对抗网络接收512维的向量作为输入,输出尺寸为256×128的RGB图片;将ImageNet数据集训练后的ResNet-18网络作为姿态分类器的特征提取部分中卷积层的初始值,另外附加两层全连接层,这两层全连接层参数初始化为标准差为0.01的正态分布;姿态分类器接收尺寸为256×128的RGB图片作为输入,输出1维向量。
S02,使用训练集训练构建的生成对抗网络,其训练过程和参数设置为StyleGAN的默认设置,无任何改变。
S03,使用训练集训练构建的姿态分类器,训练通过自适应动量估计算法优化以下损失函数进行。
Loss=-yi log(xi)-(1-yi)log(1-xi)
其中imgi为训练集中的任意图像,yi为图像imgi的姿态标签,fview为构建的姿态分类器,其输出经过Sigmoid函数后为0到1之间的一个数,代表了该图片有多大的可能性为正向背向姿态。
S04,构建虚拟数据集,如图1所示,首先随机生成均值为0,方差为1的512维的高斯向量,将该高斯向量输入训练得到的生成对抗网络中,得到一张RGB图片,图片的尺寸为256×128,由于生成对抗网络的功能,该张图片中应当展现了一个行人;将该张图片输入姿态分类器,获得一个输出,该输出代表了该图片有多大的可能性为正向背向姿态,将这个输出视为该张图片的姿态标签。至此,形成了高斯向量-图片-姿态标签的三元组。重复此过程100000次,获取100000组数据,形成虚拟数据集。
S05,编码器的作用为将现实场景的图片映射为一个512维的向量。首先构建编码器,以ImageNet数据集训练后的ResNet-50网络作为编码器的特征提取部分中卷积层的初始值,另外附加两层全连接层,这两层全连接层参数初始化为标准差为0.01的正态分布;编码器接收尺寸为256×128的RGB图片作为输入,输出512维向量。
训练编码器,如图1所示,编码器使用构建的虚拟数据集中的向量和图片进行训练。设定编码器的损失函数设定为
其中xi为虚拟数据集中图像通过编码器的输出,yi为虚拟数据集中该图像对应的向量。整个网络的训练通过自适应动量估计算法优化该损失函数进行。
S06,训练线性SVM以获得划分向量空间的超平面,从而获得该超平面的法向量。以虚拟数据集中的向量和姿态标签,使用标准线性SVM训练即可获得法向量。其中线性SVM的惩罚系数C设置为1,停止误差tol设置为0.001.
S07,如图2所示,依赖上述步骤得到的生成对抗网络、编码器、法向量即可对于任意行人图片进行姿态增广。
首先任意获取一张行人的图片,将该图片输入编码器获得输出的512维向量。该向量可大致表征原始图片,但是仍存在误差,需要和生成对抗网络联合训练以去除误差。将该向量视作可优化对象,使用随机梯度下降法优化此向量。损失函数设定为:
Loss=0.01×Lper+Lpix
其中,vgg表示ImageNet数据集训练后的vgg-16网络的relu3-3的输出;img表示该行人图片;imgg表示生成对抗网络的输出;Cp,Hp,Wp分别表示relu3-3的尺寸;C,H,W分别表示图片的尺寸。
使用法向量进行姿态增广,将法向量乘以系数S,获得的优化后的向量,即可获得新的向量。调整系数S,即可获得一系列向量。将这些向量作为生成对抗网络的输入,可获得一系列新的行人图片。获得新的行人图片随着系数S的变化,呈现该原始行人图片的不同姿态变化。
具体实施中,S分别取-2,-1.5,-1,-0.5,0,0.5,1,1.5,2。
如图3所示为本发明的应用结果。第一列为随机选择的现实图片,第二列起为使用本发明的方法所呈现的该人物在不同的姿态下的图片。可以看到,在没有人物类别标签的情况下,本发明所呈现的方法能够有效地调整行人重识别数据集的姿态,增加行人重识别数据集的广度。
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,但并不是用来限制本发明,任何在本发明原则范围内所进行的变动和修改,都应当包含在本发明的保护范围内。
Claims (9)
1.一种基于生成对抗网络的行人重识别数据集姿态数据增广方法,其特征在于,包括如下步骤:
(1)对需要进行姿态数据增广的目标场景进行图像的采集,并标注图像中的姿态类别,获得训练集,建立包含生成对抗网络和姿态分类器的网络;
(2)基于步骤(1)中建立的训练集,训练所构建的生成对抗网络;
(3)基于步骤(1)中建立的训练集,训练所构建的姿态分类器;
(4)使用步骤(2)中训练得到的生成对抗网络中的生成器和步骤(3)中得到的姿态分类器,构建虚拟数据集,虚拟数据集包括随机采样的高斯向量、用高斯向量经生成对抗网络处理获得的图片以及用图片经姿态分类器处理获得的图片对应的姿态类别;
(5)构建编码器,使用步骤(4)中得到的虚拟数据集,训练所构建的编码器;
(6)将步骤(4)得到的虚拟数据集经线性SVM算法处理后获得超平面的法向量;
(7)训练结束后,对于任意需要进行姿态数据增广的目标场景的待测图片,利用编码器、生成对抗网络和法向量共同进行姿态数据的增广。
2.根据权利要求1中所述的一种基于生成对抗网络的行人重识别数据集姿态数据增广方法,其特征在于:所述步骤(1)中,生成对抗网络包含了相互独立的生成器和判别器,生成器接收随机生成的高斯向量作为输入,输出初始RGB图片;判别器接收生成器输出的初始RGB图片或训练集,输出初始RGB图片或训练集各自的真假标签;姿态分类器包括分类卷积网络结构和连续两层全连接层,在分类卷积网络结构的输出端依次串联两层全连接层,分类卷积网络结构接收生成器输出的初始RGB图片,输出姿态标签。
3.根据权利要求2中所述的一种基于生成对抗网络的行人重识别数据集姿态数据增广方法,其特征在于:所述的生成对抗网络和姿态分类器在步骤(2)前均采用ImageNet数据集预先训练,姿态分类器中的分类卷积网络结构以ImageNet数据集训练后的网络参数作为初始值,两层全连接层的参数初始化为标准差为0.01的正态分布。
5.根据权利要求1中所述的一种基于生成对抗网络的行人重识别数据集姿态数据增广方法,其特征在于:所述步骤(4)中,
(4.1)以步骤(2)中训练得到的生成对抗网络作为工具;以随机生成采样自均值为0、方差为1的正态分布的一个高斯向量输入到生成对抗网络的生成器中,输出获得一幅初始RGB图片,由高斯向量和对应的初始RGB图片组成高斯向量-图片对;
(4.2)以步骤(3)中训练得到的姿态分类器作为工具,将高斯向量-图片对中的初始RGB图片输入姿态分类器,输出对应的姿态标签,由高斯向量和对应的初始RGB图片、姿态标签组成高斯向量-图片-姿态对;
(4.3)重复(4.1)过程N次,获取N组向量-图片对和N组高斯向量-图片-姿态对,以N组高斯向量-图片-姿态对作为虚拟数据集。
7.根据权利要求1中所述的一种基于生成对抗网络的行人重识别数据集姿态数据增广方法,其特征在于:所述步骤(6)中,以虚拟数据集中的高斯向量和姿态标签作为输入,使用线性SVM算法处理获得超平面的法向量。
8.根据权利要求1中所述的一种基于生成对抗网络的行人重识别数据集姿态数据增广方法,其特征在于:所述步骤(7)中,
(7.1)将待测图片经过编码器处理获得的高斯中间向量,将高斯中间向量作为生成对抗网络的生成器输入,并建立以下损失函数优化高斯中间向量:
Loss=0.01XLper+Lpix
其中,vgg表示经ImageNet数据集训练后的vgg-16神经网络中的relu3-3层的输出,relu3-3层的输出指的是vgg-16网络的第10个卷积层后附属的relu层的输出;img表示待测图片;imgg表示生成对抗网络的生成器的输出;Cp,Hp,Wp分别表示vgg-16神经网络中的relu3-3层输出的特征图的通道数、高度和宽度;C,H,W分别表示待测图片的通道数、高度和宽度,其中C=3;
(7.2)使用法向量进行姿态增广:以步骤(6)获得超平面的法向量乘以系数S加上(7.1)获得的优化后的高斯中间向量,获得新向量;
(7.3)将新向量再作为生成对抗网络的生成器输入,输出获得最终的用于待测图片扩增的新姿态图片。
9.根据权利要求8中所述的一种基于生成对抗网络的行人重识别数据集姿态数据增广方法,其特征在于:通过调整(7.2)中的系数S进而调整最终(7.3)新姿态图片中的姿态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011559996.1A CN112613411B (zh) | 2020-12-25 | 2020-12-25 | 基于生成对抗网络的行人重识别数据集姿态数据增广方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011559996.1A CN112613411B (zh) | 2020-12-25 | 2020-12-25 | 基于生成对抗网络的行人重识别数据集姿态数据增广方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112613411A CN112613411A (zh) | 2021-04-06 |
CN112613411B true CN112613411B (zh) | 2022-05-27 |
Family
ID=75245003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011559996.1A Active CN112613411B (zh) | 2020-12-25 | 2020-12-25 | 基于生成对抗网络的行人重识别数据集姿态数据增广方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112613411B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796080A (zh) * | 2019-10-29 | 2020-02-14 | 重庆大学 | 一种基于生成对抗网络的多姿态行人图像合成算法 |
CN111260754A (zh) * | 2020-04-27 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 人脸图像编辑方法、装置和存储介质 |
CN111709470A (zh) * | 2020-06-08 | 2020-09-25 | 北京百度网讯科技有限公司 | 图像生成方法、装置、设备及介质 |
WO2020210679A1 (en) * | 2019-04-10 | 2020-10-15 | The Board Of Trustees Of The Leland Stanford Junior University | High resolution alignment of 3d imaging with 2d imaging |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10642846B2 (en) * | 2017-10-13 | 2020-05-05 | Microsoft Technology Licensing, Llc | Using a generative adversarial network for query-keyword matching |
US11423282B2 (en) * | 2018-10-30 | 2022-08-23 | Huawei Technologies Co., Ltd. | Autoencoder-based generative adversarial networks for text generation |
US11610115B2 (en) * | 2018-11-16 | 2023-03-21 | Nvidia Corporation | Learning to generate synthetic datasets for training neural networks |
US11775770B2 (en) * | 2019-05-23 | 2023-10-03 | Capital One Services, Llc | Adversarial bootstrapping for multi-turn dialogue model training |
-
2020
- 2020-12-25 CN CN202011559996.1A patent/CN112613411B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020210679A1 (en) * | 2019-04-10 | 2020-10-15 | The Board Of Trustees Of The Leland Stanford Junior University | High resolution alignment of 3d imaging with 2d imaging |
CN110796080A (zh) * | 2019-10-29 | 2020-02-14 | 重庆大学 | 一种基于生成对抗网络的多姿态行人图像合成算法 |
CN111260754A (zh) * | 2020-04-27 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 人脸图像编辑方法、装置和存储介质 |
CN111709470A (zh) * | 2020-06-08 | 2020-09-25 | 北京百度网讯科技有限公司 | 图像生成方法、装置、设备及介质 |
Non-Patent Citations (2)
Title |
---|
InterFaceGAN: Interpreting the Disentangled Face Representation Learned by GANs;Yujun Shen等;《IEEE Transaction on Pattern Analysys and Machine Intelligenece》;20201027;第2004-2018页 * |
基于生成式对抗网络的合成孔径雷达舰船数据增广在改进单次多盒检测器中的应用;杨龙等;《兵工学报》;20191230;1-10页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112613411A (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yeh et al. | Lightweight deep neural network for joint learning of underwater object detection and color conversion | |
US6917703B1 (en) | Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network | |
CN108520202B (zh) | 基于变分球面投影的对抗鲁棒性图像特征提取方法 | |
CN111639692A (zh) | 一种基于注意力机制的阴影检测方法 | |
CN112801015B (zh) | 一种基于注意力机制的多模态人脸识别方法 | |
CN110956082B (zh) | 基于深度学习的人脸关键点检测方法和检测系统 | |
US7848544B2 (en) | Robust face registration via multiple face prototypes synthesis | |
CN111476178A (zh) | 一种基于2d-3d cnn的微表情识别方法 | |
CN110570443A (zh) | 一种基于结构约束条件生成模型的图像线状目标提取方法 | |
Rao et al. | Neural network classifier for continuous sign language recognition with selfie video | |
Yap et al. | A recursive soft-decision approach to blind image deconvolution | |
Gorijala et al. | Image generation and editing with variational info generative AdversarialNetworks | |
Baker et al. | Improving face recognition by artificial neural network using principal component analysis | |
Khokher et al. | A super descriptor tensor decomposition for dynamic scene recognition | |
Huang et al. | Human emotion recognition based on face and facial expression detection using deep belief network under complicated backgrounds | |
CN112613411B (zh) | 基于生成对抗网络的行人重识别数据集姿态数据增广方法 | |
Ariza et al. | Recognition system for facial expression by processing images with deep learning neural network | |
Horiuchi et al. | Spectral normalization and relativistic adversarial training for conditional pose generation with self-attention | |
CN113705307A (zh) | 图像处理方法、装置、设备及存储介质 | |
Vankayalapati et al. | Nonlinear feature extraction approaches with application to face recognition over large databases | |
Janiszewski et al. | Achieving statistical dependence of the CNN response on the input data distortion for OCR problem | |
KR102529214B1 (ko) | 페이스 스와핑 딥러닝 시스템을 학습하는 방법 및 장치 | |
Yeom | Photon-counting linear discriminant analysis for face recognition at a distance | |
Mankar et al. | An efficient Deep Learning of scarce and diverse faces for Face recognition | |
Yin et al. | Face Recognition System using Self-Organizing Feature Map and Appearance-Based Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |