CN107292813B - 一种基于生成对抗网络的多姿态人脸生成方法 - Google Patents

一种基于生成对抗网络的多姿态人脸生成方法 Download PDF

Info

Publication number
CN107292813B
CN107292813B CN201710348366.1A CN201710348366A CN107292813B CN 107292813 B CN107292813 B CN 107292813B CN 201710348366 A CN201710348366 A CN 201710348366A CN 107292813 B CN107292813 B CN 107292813B
Authority
CN
China
Prior art keywords
network
facial image
vector
gesture stability
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710348366.1A
Other languages
English (en)
Other versions
CN107292813A (zh
Inventor
龙阳祺
王曰海
胡浩基
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201710348366.1A priority Critical patent/CN107292813B/zh
Publication of CN107292813A publication Critical patent/CN107292813A/zh
Application granted granted Critical
Publication of CN107292813B publication Critical patent/CN107292813B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本发明公开了一种基于生成对抗网络的多姿态人脸生成方法,在训练阶段,首先收集各种姿态的人脸数据,并基于生成对抗网络模型训练两个深度神经网络G和D,训练完成后,以随机采样加上姿态控制参数输入生成网络G得到各种姿态下的人脸图像。本发明可以生成大量不同人在多个姿态下的人脸图像,将有效改善多姿态人脸识别领域数据缺乏的问题。然后利用新生成的各种姿态的人脸图像作为训练数据,训练一个编码器用于提取图像的身份信息;最终的测试过程,输入一张随机姿态下的图片,经过训练好的编码器得到身份信息特征,再通过训练好的生成网络,得到同一个人的各种姿态的人脸图像。

Description

一种基于生成对抗网络的多姿态人脸生成方法
技术领域
本发明属于计算机视觉与模式识别领域,特别涉及深度学习,生成对抗模型(GAN)以及传统的图像处理方法。
背景技术
近年来,随着大数据技术的深入发展,生物特征识别成为信息安全领域的重要研究方向。作为生物特征识别中最活跃的分支,人脸识别在近年来焕发了勃勃生机。从2013年开始,随着深度学习的发展,深度神经网络逐渐应用于人脸识别领域,获得了比传统识别方法更高的准确率。尽管基于深度学习的人脸识别算法相比传统算法有了长足的进步,但目前大多数人脸识别系统的假定是单一的限定性场景,即光照环境可控、用户配合情况下的场景。然而基于单一限定性场景的人脸识别应用却很有限,现实的人脸识别场景存在光照和姿态变化等非限定性因素。例如,视频监控早已被广泛应用在道路交通、公共安全、安全控制等方面,对监控视频中各种姿态下的人脸识别,无疑具有重大应用价值,但目前大多数通用的人脸识别系统对这一情况无法做到准确识别。
目前大多数算法针对的都是正面姿态或者小姿态(45°以下),缺乏对于大姿态人脸识别的泛化能力。对于大姿态的人脸识别,挑战主要在于以下三点:首先,现在普遍的基于基准点的模型都假设基准点是可见的,但是对于侧脸来说会存在遮挡不可见的问题;其次从正脸图像到侧脸图像,随着姿态的变化图像变化非常剧烈;最后包含大姿态的大规模数据库难以获得,但这恰恰是深度学习得以实施的基础。
发明内容
针对多姿态人脸识别的困难问题,尤其是目前大规模多姿态人脸数据库缺乏的问题,本发明提供一种基于生成对抗网络的多姿态人脸生成方法。
为实现上述技术目的,本发明采用的技术方案如下:在训练阶段,首先收集各种姿态的人脸数据,并基于生成对抗网络(GAN)模型训练两个深度神经网络G和D,生成网络G用来模拟原始数据生成类似于原始数据分布的人脸图像,鉴别网络D用来区分输入图像是来自生成网络G还是原始图像数据,训练完成后,以随机采样加上姿态控制参数输入生成网络G即可得到不同人的各种姿态下人脸图像。具体步骤如下:
1)收集多姿态的人脸图像,按角度姿态信息整理分类,并注上标注且编码为姿态控制参数y;
2)基于带条件的生成对抗网络模型训练两个深度神经网络:生成网络G和鉴别网络D;
3)将随机采样的向量和姿态控制参数y输入生成网络G,得到各种姿态的人脸图像。
4)将随机采样的各种姿态的人脸图像作为新的训练数据,训练一个编码器用于提取图像的身份信息特征;
5)测试阶段,输入一张随机姿态下的图片,经过步骤4)训练好的编码器得到身份信息特征,再加上目标控制参数y,通过步骤2)训练好的生成网络G,得到同一个人的各种姿态的人脸图像。
进一步地,所述的步骤1)中,标注方法具体为:从-45°~45°,每隔15°为一种姿态,依次标注为姿态0~6,然后编码为姿态控制参数y,姿态控制参数y为一个7维one-hot向量,即向量中只有一个元素为1,其余元素为0,编码规则为:如果为姿态i,i∈{0,1,…,6},则对应的姿态控制参数y为第i+1个元素为1,其他6个元素为0。
进一步地,所述的步骤1)中,还包括对收集的多姿态的人脸图像进行数据预处理的操作,所述数据预处理包括减均值以及归一化操作,所述减均值包括图片意义下的减均值以及基于每个像素点位置的减均值。
进一步地,所述的步骤1)中,收集多姿态的人脸图像,使用Multi_Pie数据库的第一个session的前200个人的7种姿态下的56000张图片进行训练。
进一步地,所述的步骤2)中,生成网络G用来模拟原始数据生成类似于原始数据分布的人脸图像,鉴别网络D用来区分输入图像是来自生成网络G还是原始图像数据,所述带条件的生成对抗网络模型(CGAN)以姿态控制参数作为条件,其目标函数为:
其中,V(D,G)表示博弈问题中的价值函数,即需要优化的目标函数;x~pdata(x)表示x服从数据库内人脸图像分布pdata,即表示x来自数据库人脸图像,表示在pdata分布下求期望;z~pz(z)表示z服从先验分布pz,pz为[-1,1]内的均匀分布,即z为[-1,1]内随机采样的向量,表示在pz分布下求期望;D(x|y))表示输入x在姿态控制参数y的条件下经过鉴别网络D的输出;G(z|y)表示输入向量z在姿态控制参数y的条件下经过生成网络G的输出图像;D(G(z|y))表示G(z|y)经过鉴别网络D的输出;
训练得到的生成网络G能够根据姿态控制参数y生成各种不同姿态的人脸图像,鉴别网络D用来提取输入图像的特征。
进一步地,所述的步骤3)为:对[-1,1]上的均匀分布pz进行随机采样得到向量z,不同的向量z代表不同的人;根据向量z和姿态控制参数y,利用步骤2)训练好的生成网络G,得到各种姿态下的人脸图像。
进一步地,所述的步骤4)为:
在[-1,1]的均匀分布pz下随机采样得到输入向量z0;在1-7内用随机数随机指定一个位置的元素为1,其余为0,得到输入姿态控制参数y0;将z0和y0同时输入生成网络G得到采样的人脸图像输出X0
设计一个编码器Encoder用来提取输入图像X0的特征;编码器Encoder的网络结构与鉴别网络D相同,仅最后一层全连接层改为与输入向量z0维度相同,全连接层的输出向量记为将向量和输入姿态控制参数y0同时输入之前训练好的生成网络G中,得到相应的图片输出为了使图像尽可能逼近图像X0,设计的损失函数如下:
其中Loss(E)表示训练Encoder时需要优化的损失函数,Lz和LX分别表示关于z的损失项和关于x的损失项,下标i表示向量的第i个元素,n为输入向量z0的维度,i∈pixel表示图像上的每个像素点;
通过优化以上损失函数,训练好的Encoder可以近似得到输入图像X的特征z,即输入图像X的身份特征。
本发明的有益效果是:本发明可以生成大量逼真多姿态人脸图像,有效改善多姿态人脸识别领域大规模数据缺乏的问题,将为后续的深度神经网络在多姿态人脸识别领域的应用带来便利。并在此基础上训练一个编码器,有效实现将各种姿态的输入人脸图像转到目标姿态,最终输出图像在具有高真实性的基础上同时保持输入图像的身份特征。特别的,将各种姿态的人脸图像统一转到正面人脸,相当于对各种姿态的人脸图像做了对齐操作,可以克服姿态变化提升人脸识别在多姿态条件下的识别率。从现实应用场景来说,监控安防等领域都需要对多姿态的人脸图像有一定的识别率,本发明将有望推动监控安防等领域的发展。
附图说明
图1是带条件的生成对抗网络整体结构示意图;
图2是生成网络G网络结构图;
图3是鉴别网络D网络结构图;
图4是原始数据库中人脸图片;
图5是生成的多姿态人脸图片;
图6是编码器Encoder训练示意图;
图7是编码器Encoder网络结构图;
图8是输入任意人脸的旋转效果图(其中第一列为输入人脸)。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细说明。
本发明提供的一种基于生成对抗网络的多姿态人脸生成方法,包括以下步骤:
1)收集多姿态的人脸图像,按角度姿态信息整理分类,并注上标注且编码为姿态控制参数y;
2)基于带条件的生成对抗网络模型训练两个深度神经网络:生成网络G和鉴别网络D;
3)将随机采样的向量和姿态控制参数y输入生成网络G,得到各种姿态的人脸图像。
4)将随机采样的各种姿态的人脸图像作为新的训练数据,训练一个编码器用于提取图像的身份信息特征;
5)测试阶段,输入一张随机姿态下的图片,经过步骤4)训练好的编码器得到身份信息特征,再加上目标控制参数y,通过步骤2)训练好的生成网络G,得到同一个人的各种姿态的人脸图像。
进一步地,所述的步骤1)中,标注方法具体为:从-45°~45°,每隔15°为一种姿态,依次标注为姿态0~6,然后编码为姿态控制参数y,姿态控制参数y为一个7维one-hot向量,即向量中只有一个元素为1,其余元素为0,编码规则为:如果为姿态i,i∈{0,1,…,6},则对应的姿态控制参数y为第i+1个元素为1,其他6个元素为0。
进一步地,所述的步骤1)中,还包括对收集的多姿态的人脸图像进行数据预处理的操作,所述数据预处理包括减均值以及归一化操作,所述减均值包括图片意义下的减均值以及基于每个像素点位置的减均值。
进一步地,所述的步骤1)中,收集多姿态的人脸图像,使用Multi_Pie数据库的第一个session的前200个人的7种姿态下的56000张图片进行训练。
进一步地,所述的步骤2)中,生成网络G用来模拟原始数据生成类似于原始数据分布的人脸图像,鉴别网络D用来区分输入图像是来自生成网络G还是原始图像数据,所述带条件的生成对抗网络模型(CGAN)以姿态控制参数作为条件,其目标函数为:
其中,V(D,G)表示博弈问题中的价值函数,即需要优化的目标函数;x~pdata(x)表示x服从数据库内人脸图像分布pdata,即表示x来自数据库人脸图像,表示在pdata分布下求期望;z~pz(z)表示z服从先验分布pz,pz为[-1,1]内的均匀分布,即z为[-1,1]内随机采样的向量,表示在pz分布下求期望;D(x|y))表示输入x在姿态控制参数y的条件下经过鉴别网络D的输出;G(z|y)表示输入向量z在姿态控制参数y的条件下经过生成网络G的输出图像;D(G(z|y))表示G(z|y)经过鉴别网络D的输出;
训练得到的生成网络G能够根据姿态控制参数y生成各种不同姿态的人脸图像,鉴别网络D用来提取输入图像的特征。
进一步地,所述的步骤3)为:对[-1,1]上的均匀分布pz进行随机采样得到向量z,不同的向量z代表不同的人;根据向量z和姿态控制参数y,利用步骤2)训练好的生成网络G,得到各种姿态下的人脸图像。因为z是[-1,1]连续的随机变量,因此该采样可以生成大量的不同人的多姿态人脸图像,改善多姿态人脸识别问题中数据缺乏,尤其是人数缺乏的问题。
进一步地,所述的步骤4)为:
在[-1,1]的均匀分布pz下随机采样得到输入向量z0;在1-7内用随机数随机指定一个位置的元素为1,其余为0,得到输入姿态控制参数y0;将z0和y0同时输入生成网络G得到采样的人脸图像输出X0
设计一个编码器Encoder用来提取输入图像X0的特征;编码器Encoder的网络结构与鉴别网络D相同,仅最后一层全连接层改为与输入向量z0维度相同,全连接层的输出向量记为将向量和输入姿态控制参数y0同时输入之前训练好的生成网络G中,得到相应的图片输出为了使图像尽可能逼近图像X0,设计的损失函数如下:
其中Loss(E)表示训练Encoder时需要优化的损失函数,Lz和LX分别表示关于z的损失项和关于x的损失项,下标i表示向量的第i个元素,n为输入向量z0的维度,i∈pixel表示图像上的每个像素点;
通过优化以上损失函数,训练好的Encoder可以近似得到输入图像X的特征z,即输入图像X的身份特征。
实施例
本实施例的实现过程如下:
1)收集多姿态的人脸图像,按角度姿态信息整理分类,并注上标注且编码为姿态控制参数y;
使用已有的Multi_Pie数据库,由4个session组成,一共包含337个人的15种姿态和20种光照下的超过750000张图片(虽然该数据库人脸图片数量很多,但是人的数量相对较少,而且很大程度上是光照的差异性,而不仅仅是姿态的各异),本实施例中仅使用第一个session的前200个人的7种姿态下的约56000图片进行训练。对收集的多姿态的人脸图像进行数据预处理,数据预处理包括减均值(包括图片意义下的减均值以及基于每个像素点位置的减均值)以及归一化等操作。标注方法具体为:从-45°~45°,每隔15隔为一种姿态,依次标注为姿态0~6,然后编码为姿态控制参数y,姿态控制参数y为一个7维one-hot向量(即向量中只有一个元素为1,其余元素为0),编码规则为:如果为姿态i(i∈{0,1,…,6}),则对应的姿态控制参数y为第i+1个元素为1,其他6个元素为0。
2)基于带条件的生成对抗网络模型训练两个深度神经网络:生成网络G和鉴别网络D;
生成对抗网络(GAN)由G和D两个深度神经网络构成,生成网络G用来模拟原始数据生成类似于原始数据分布的人脸图像,鉴别网络D用来区分输入图像是来自生成网络G还是原始图像数据,两个网络的优化转化为一个博弈问题,利用一个极大极小目标函数来优化两个网络:
其中,V(D,G)表示博弈问题中的价值函数,即需要优化的目标函数;x~pdata(x)表示x服从数据库内人脸图像分布pdata,即表示x来自数据库人脸图像,表示在pdata分布下求期望;z~pz(z)表示z服从先验分布pz,本实施例中,pz为[-1,1]内的100维均匀分布,即z为[-1,1]内随机采样的100维向量,表示在pz分布下求期望;D(x)表示输入x经过鉴别网络D的输出,G(z)表示输入向量z经过生成网络G的输出图像。本实施例中为了生成各种姿态下的人脸图像,采用带条件的生成对抗模型(CGAN),以姿态控制参数作为条件,其目标函数为:
D(x|y))表示输入x在姿态控制参数y的条件下经过鉴别网络D的输出;G(z|y)表示输入向量z在姿态控制参数y的条件下经过生成网络G的输出图像;D(G(z|y))表示G(z|y)经过鉴别网络D的输出;y为编码好的姿态控制参数,一个7维one-hot向量。训练整体框架结构示意图如图1所示,我们设计的生成网络G和鉴别网络D分别如图2,3所示。
训练得到的生成网络G能够根据姿态控制参数y生成各种不同姿态的人脸图像,鉴别网络D用来提取输入图像的特征。
3)将随机采样的向量和姿态控制参数y输入生成网络G,得到各种姿态的人脸图像。
对[-1,1]上的均匀分布pz进行随机采样得到向量z,不同的向量z代表不同的人;根据向量z和姿态控制参数y,利用步骤2)训练好的生成网络G,得到各种姿态下的人脸图像,作为对比,这里展示原始数据集中人脸图像如图4所示,以及生成的各种姿态人脸图像如图5所示。从生成的图像可以看出:身份特性控制和姿态控制完全拆解开,给定相同的姿态控制参数,采样得到不同的表征身份特性的z将得到相同姿态下的不同人的图像(如图5中每一列),同时对于给定的身份特性z,采样得到不同的y将生成同一个人在不同姿态下的人脸图像(如图5中的每一行)。因为z是[-1,1]连续的随机变量,因此该采样可以生成大量的不同人的多姿态人脸图像,改善多姿态人脸识别问题中数据缺乏,尤其是人数缺乏的问题。
4)将随机采样的各种姿态的人脸图像作为新的训练数据,训练一个编码器用于提取图像的身份信息特征;
在[-1,1]的均匀分布pz下随机采样得到输入向量z0(100维);在1-7内用随机数随机指定一个位置的元素为1,其余为0,得到输入姿态控制参数y0;将z0和y0同时输入生成网络G得到采样的人脸图像输出X0
设计一个编码器Encoder用来提取输入图像X0的特征;编码器Encoder的网络结构与鉴别网络D相同,仅最后一层全连接层改为100维,即输出为100维向量将向量和输入姿态控制参数y0同时输入之前训练好的生成网络G中,得到相应的图片输出为了使图像尽可能逼近图像X0,设计的损失函数如下:
其中Loss(E)表示训练Encoder时需要优化的损失函数,Lz和LX分别表示关于z的损失项和关于x的损失项,下标i表示向量的第i个元素,i∈pixel表示图像上的每个像素点。编码器Encoder训练示意图如图6所示,编码器Encoder的具体网络结构如图7所示。
通过优化以上损失函数,训练好的Encoder可以近似得到输入图像X的特征z,即输入图像X的身份特征。
5)测试阶段,输入一张随机姿态下的图片,经过步骤4)训练好的编码器得到身份信息特征,再加上目标控制参数y,通过步骤2)训练好的生成网络G,得到同一个人的各种姿态的人脸图像。输入随机姿态人脸图像的旋转效果如图8所示,其中第一列为输入随机姿态图像,后面7列为将输入人脸转到7个不同角度,同时保持身份特性。从图中可以看出,身份特性得到较好保持,同时姿态控制也达到效果。

Claims (6)

1.一种基于生成对抗网络的多姿态人脸生成方法,其特征在于,包括以下步骤:
1)收集多姿态的人脸图像,按角度姿态信息整理分类,并注上标注且编码为姿态控制参数y;
2)基于带条件的生成对抗网络模型训练两个深度神经网络:生成网络G和鉴别网络D;
3)将随机采样的向量和姿态控制参数y输入生成网络G,得到各种姿态的人脸图像;其过程为对[-1,1]上的均匀分布pz进行随机采样得到向量z,不同的向量z代表不同的人;根据向量z和姿态控制参数y,利用步骤2)训练好的生成网络G,得到各种姿态下的人脸图像;
4)将随机采样的各种姿态的人脸图像作为新的训练数据,训练一个编码器用于提取图像的身份信息特征;
5)测试阶段,输入一张随机姿态下的图片,经过步骤4)训练好的编码器得到身份信息特征,再加上目标控制参数y,通过步骤2)训练好的生成网络G,得到同一个人的各种姿态的人脸图像。
2.根据权利要求1所述的基于生成对抗网络的多姿态人脸生成方法,其特征在于,所述的步骤1)中,标注方法具体为:从-45°~45°,每隔15°为一种姿态,依次标注为姿态0~6,然后编码为姿态控制参数y,姿态控制参数y为一个7维one-hot向量,即向量中只有一个元素为1,其余元素为0,编码规则为:如果为姿态i,i∈{0,1,…,6},则对应的姿态控制参数y为第i+1个元素为1,其他6个元素为0。
3.根据权利要求1所述的基于生成对抗网络的多姿态人脸生成方法,其特征在于,所述的步骤1)中,还包括对收集的多姿态的人脸图像进行数据预处理的操作,所述数据预处理包括减均值以及归一化操作,所述减均值包括图片意义下的减均值以及基于每个像素点位置的减均值。
4.根据权利要求1所述的基于生成对抗网络的多姿态人脸生成方法,其特征在于,所述的步骤1)中,收集多姿态的人脸图像,使用Multi_Pie数据库的第一个session的前200个人的7种姿态下的56000张图片进行训练。
5.根据权利要求1所述的基于生成对抗网络的多姿态人脸生成方法,其特征在于,所述的步骤2)中,生成网络G用来模拟原始数据生成类似于原始数据分布的人脸图像,鉴别网络D用来区分输入图像是来自生成网络G还是原始图像数据,所述带条件的生成对抗网络模型(CGAN)以姿态控制参数作为条件,其目标函数为:
其中,V(D,G)表示博弈问题中的价值函数,即需要优化的目标函数;x~pdata(x)表示x服从数据库内人脸图像分布pdata,即表示x来自数据库人脸图像,表示在pdata分布下求期望;z~pz(z)表示z服从先验分布pz,pz为[-1,1]内的均匀分布,即z为[-1,1]内随机采样的向量,表示在pz分布下求期望;D(x|y))表示输入x在姿态控制参数y的条件下经过鉴别网络D的输出;G(z|y)表示输入向量z在姿态控制参数y的条件下经过生成网络G的输出图像;D(G(z|y))表示G(z|y)经过鉴别网络D的输出;
训练得到的生成网络G能够根据姿态控制参数y生成各种不同姿态的人脸图像,鉴别网络D用来提取输入图像的特征。
6.根据权利要求1所述的基于生成对抗网络的多姿态人脸生成方法,其特征在于,所述的步骤4)为:
在[-1,1]的均匀分布pz下随机采样得到输入向量z0;在1-7内用随机数随机指定一个位置的元素为1,其余为0,得到输入姿态控制参数y0;将z0和y0同时输入生成网络G得到采样的人脸图像输出X0
设计一个编码器Encoder用来提取输入图像X0的特征;编码器Encoder的网络结构与鉴别网络D相同,仅最后一层全连接层改为与输入向量z0维度相同,全连接层的输出向量记为将向量和输入姿态控制参数y0同时输入之前训练好的生成网络G中,得到相应的图片输出为了使图像尽可能逼近图像X0,设计的损失函数如下:
其中Loss(E)表示训练Encoder时需要优化的损失函数,Lz和LX分别表示关于z的损失项和关于x的损失项,下标i表示向量的第i个元素,n为输入向量z0的维度,i∈pixel表示图像上的每个像素点;
通过优化以上损失函数,训练好的Encoder可以近似得到输入图像X的特征z,即输入图像X的身份特征。
CN201710348366.1A 2017-05-17 2017-05-17 一种基于生成对抗网络的多姿态人脸生成方法 Active CN107292813B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710348366.1A CN107292813B (zh) 2017-05-17 2017-05-17 一种基于生成对抗网络的多姿态人脸生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710348366.1A CN107292813B (zh) 2017-05-17 2017-05-17 一种基于生成对抗网络的多姿态人脸生成方法

Publications (2)

Publication Number Publication Date
CN107292813A CN107292813A (zh) 2017-10-24
CN107292813B true CN107292813B (zh) 2019-10-22

Family

ID=60094049

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710348366.1A Active CN107292813B (zh) 2017-05-17 2017-05-17 一种基于生成对抗网络的多姿态人脸生成方法

Country Status (1)

Country Link
CN (1) CN107292813B (zh)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862270B (zh) * 2017-10-31 2020-07-21 深圳云天励飞技术有限公司 人脸分类器训练方法、人脸检测方法及装置、电子设备
CN107767384B (zh) * 2017-11-03 2021-12-03 电子科技大学 一种基于对抗训练的图像语义分割方法
CN107944358A (zh) * 2017-11-14 2018-04-20 华南理工大学 一种基于深度卷积对抗网络模型的人脸生成方法
CN107845092A (zh) * 2017-11-14 2018-03-27 深圳码隆科技有限公司 服装logo效果检测方法、装置及电子设备
CN108197525B (zh) * 2017-11-20 2020-08-11 中国科学院自动化研究所 人脸图像生成方法及装置
CN108876847B (zh) * 2017-11-30 2021-04-27 北京旷视科技有限公司 图像定位方法、装置、系统和存储介质
CN108182397B (zh) * 2017-12-26 2021-04-20 王华锋 一种多姿态多尺度的人脸验证方法
US20240028907A1 (en) * 2017-12-28 2024-01-25 Intel Corporation Training data generators and methods for machine learning
US11599751B2 (en) 2017-12-28 2023-03-07 Intel Corporation Methods and apparatus to simulate sensor data
CN109993177A (zh) * 2017-12-29 2019-07-09 华为技术有限公司 一种图像处理方法及装置
CN108334816B (zh) * 2018-01-15 2021-11-23 桂林电子科技大学 基于轮廓对称约束生成式对抗网络的多姿态人脸识别方法
CN108171770B (zh) * 2018-01-18 2021-04-06 中科视拓(北京)科技有限公司 一种基于生成式对抗网络的人脸表情编辑方法
CN108334847B (zh) * 2018-02-06 2019-10-22 哈尔滨工业大学 一种真实场景下的基于深度学习的人脸识别方法
CN108334848B (zh) * 2018-02-06 2020-12-25 哈尔滨工业大学 一种基于生成对抗网络的微小人脸识别方法
CN108446609B (zh) * 2018-03-02 2022-03-11 南京邮电大学 一种基于生成对抗网络的多角度面部表情识别方法
CN108537743B (zh) * 2018-03-13 2022-05-20 杭州电子科技大学 一种基于生成对抗网络的面部图像增强方法
CN108510435A (zh) * 2018-03-28 2018-09-07 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN108573222B (zh) * 2018-03-28 2020-07-14 中山大学 基于循环对抗生成网络的行人图像遮挡检测方法
CN108629823B (zh) * 2018-04-10 2022-09-06 北京京东尚科信息技术有限公司 多视角图像的生成方法和装置
CN108596062B (zh) * 2018-04-12 2021-04-06 清华大学 基于深度学习的人脸图片实时高光去除方法及装置
CN108564129B (zh) * 2018-04-24 2020-09-08 电子科技大学 一种基于生成对抗网络的轨迹数据分类方法
CN108710831B (zh) * 2018-04-24 2021-09-21 华南理工大学 一种基于机器视觉的小数据集人脸识别算法
CN108595916B (zh) * 2018-05-10 2020-10-20 浙江工业大学 基于生成对抗网络的基因表达全谱推断方法
WO2019227479A1 (zh) * 2018-06-01 2019-12-05 华为技术有限公司 人脸旋转图像的生成方法及装置
CN108875915B (zh) * 2018-06-12 2019-05-07 辽宁工程技术大学 一种面向嵌入式应用的深度对抗网络优化方法
CN109255364B (zh) * 2018-07-12 2021-06-08 杭州电子科技大学 一种基于深度卷积生成对抗网络的场景识别方法
CN108922518B (zh) * 2018-07-18 2020-10-23 苏州思必驰信息科技有限公司 语音数据扩增方法和系统
US10679626B2 (en) 2018-07-24 2020-06-09 Pegah AARABI Generating interactive audio-visual representations of individuals
CN109145958B (zh) * 2018-07-27 2019-11-08 哈尔滨工业大学 一种基于多任务生成对抗网络的真实场景小物体检测方法
CN109190470B (zh) * 2018-07-27 2022-09-27 北京市商汤科技开发有限公司 行人重识别方法及装置
CN109063776B (zh) * 2018-08-07 2021-08-10 北京旷视科技有限公司 图像再识别网络训练方法、装置和图像再识别方法及装置
CN109389551B (zh) * 2018-10-08 2023-04-07 清华大学 中性表情正向人脸图片方法及装置
CN109284738B (zh) * 2018-10-25 2020-08-04 上海交通大学 不规则人脸矫正方法和系统
US11275819B2 (en) 2018-12-05 2022-03-15 Bank Of America Corporation Generative adversarial network training and feature extraction for biometric authentication
CN109635745A (zh) * 2018-12-13 2019-04-16 广东工业大学 一种基于生成对抗网络模型生成多角度人脸图像的方法
CN109726669B (zh) * 2018-12-26 2020-11-17 浙江捷尚视觉科技股份有限公司 基于对抗网络的不同光照条件下行人再识别数据生成方法
US20200242736A1 (en) * 2019-01-29 2020-07-30 Nvidia Corporation Method for few-shot unsupervised image-to-image translation
CN109815928B (zh) * 2019-01-31 2021-05-11 中国电子进出口有限公司 一种基于对抗学习的人脸图像合成方法和装置
CN109934116B (zh) * 2019-02-19 2020-11-24 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法
CN109961507B (zh) * 2019-03-22 2020-12-18 腾讯科技(深圳)有限公司 一种人脸图像生成方法、装置、设备及存储介质
CN110348330B (zh) * 2019-06-24 2022-06-14 电子科技大学 基于vae-acgan的人脸姿态虚拟视图生成方法
CN110427864B (zh) * 2019-07-29 2023-04-21 腾讯科技(深圳)有限公司 一种图像处理方法、装置及电子设备
CN110427888A (zh) * 2019-08-05 2019-11-08 北京深醒科技有限公司 一种基于特征聚类的人脸质量评估方法
CN110647986A (zh) * 2019-08-13 2020-01-03 杭州电子科技大学 一种基于对抗式生成网络的道路破损图像生成方法
CN110490158B (zh) * 2019-08-23 2021-12-24 安徽大学 一种基于多级模型的鲁棒人脸对齐方法
CN110781738A (zh) * 2019-09-19 2020-02-11 平安科技(深圳)有限公司 生成人脸图像的方法、装置、计算机设备及存储介质
CN112686083A (zh) * 2019-10-18 2021-04-20 复旦大学 基于组合对抗生成网络的人脸微表情深度学习识别系统
CN111241614B (zh) * 2019-12-30 2022-08-23 浙江大学 基于条件生成对抗网络模型的工程结构荷载反演方法
CN111210409B (zh) * 2019-12-30 2022-08-23 浙江大学 一种基于条件生成对抗网络的结构损伤识别方法
CN111241725B (zh) * 2019-12-30 2022-08-23 浙江大学 基于条件生成对抗网络的结构响应重构方法
CN111243066B (zh) * 2020-01-09 2022-03-22 浙江大学 一种基于自监督学习与生成对抗机制的人脸表情迁移方法
CN113313133A (zh) * 2020-02-25 2021-08-27 武汉Tcl集团工业研究院有限公司 一种生成对抗网络的训练方法、动画图像生成方法
CN111652827B (zh) * 2020-04-24 2023-04-18 山东大学 一种基于生成对抗网络的正面人脸合成方法及系统
CN111652798B (zh) * 2020-05-26 2023-09-29 浙江大华技术股份有限公司 人脸姿态迁移方法和计算机存储介质
CN113052273A (zh) * 2021-06-01 2021-06-29 之江实验室 基于像素组合约束和采样校正的gan图像生成方法
CN113723188A (zh) * 2021-07-28 2021-11-30 国网浙江省电力有限公司电力科学研究院 一种结合人脸与步态特征的着装一致人员身份核验方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Conditional generative adversarial nets for convolutional face generation;Jon Gauthier;《cs231n.stanford.edu/reports/2015/pdfs/》;20150327;全文 *

Also Published As

Publication number Publication date
CN107292813A (zh) 2017-10-24

Similar Documents

Publication Publication Date Title
CN107292813B (zh) 一种基于生成对抗网络的多姿态人脸生成方法
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
Yuan et al. Fingerprint liveness detection using an improved CNN with image scale equalization
CN105118082B (zh) 个性化视频生成方法及系统
CN110348330A (zh) 基于vae-acgan的人脸姿态虚拟视图生成方法
CN106033435B (zh) 物品识别方法和装置,室内地图生成方法和装置
CN109101865A (zh) 一种基于深度学习的行人重识别方法
CN107729805B (zh) 用于行人再识别的神经网络和基于深度学习的行人再识别算法
CN107437077A (zh) 一种基于生成对抗网络的旋转面部表示学习的方法
CN105718889B (zh) 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法
CN104298973B (zh) 基于自编码器的人脸图像旋转方法
CN107423678A (zh) 一种提取特征的卷积神经网络的训练方法及人脸识别方法
CN108573243A (zh) 一种基于深度卷积神经网络的低质量人脸的比对方法
CN105843386A (zh) 一种商场虚拟试衣系统
CN107203745B (zh) 一种基于跨域学习的跨视角动作识别方法
CN109086754A (zh) 一种基于深度学习的人体姿态识别方法
CN107392131A (zh) 一种基于人体骨骼节点距离的动作识别方法
CN107066979A (zh) 一种基于深度信息和多维度卷积神经网络的人体动作识别方法
Barra et al. Gender classification on 2D human skeleton
CN106295501A (zh) 基于唇部运动的深度学习身份识别方法
CN102567716A (zh) 一种人脸合成系统及实现方法
Zhao et al. Tracking human pose using max-margin Markov models
CN109598226B (zh) 基于Kinect彩色及深度信息在线考试作弊判断方法
Long et al. Video-based facial expression recognition using learned spatiotemporal pyramid sparse coding features
Deng et al. Gait recognition under different clothing conditions via deterministic learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant