CN111680566B - 一种基于滑动分块生成对抗网络的小样本人脸识别方法 - Google Patents

一种基于滑动分块生成对抗网络的小样本人脸识别方法 Download PDF

Info

Publication number
CN111680566B
CN111680566B CN202010391894.7A CN202010391894A CN111680566B CN 111680566 B CN111680566 B CN 111680566B CN 202010391894 A CN202010391894 A CN 202010391894A CN 111680566 B CN111680566 B CN 111680566B
Authority
CN
China
Prior art keywords
face
image
follows
formula
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010391894.7A
Other languages
English (en)
Other versions
CN111680566A (zh
Inventor
达飞鹏
杜桥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010391894.7A priority Critical patent/CN111680566B/zh
Publication of CN111680566A publication Critical patent/CN111680566A/zh
Application granted granted Critical
Publication of CN111680566B publication Critical patent/CN111680566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于滑动分块生成对抗网络的小样本人脸识别方法用以重点处理姿态变化,步骤如下:首先将原始数据集中的正脸—侧脸样本经过镜像变换和对称变换生成虚拟新样本;对所有样本进行十字交叉对齐处理来保障滑动分块的准确性;采用滑动窗口将人脸整体特征变为重叠局部特征,然后被依次有序地输入到生成对抗网络,利用改进的组合损失函数来生成正面人脸;最后建立生成识别一体化系统,实现姿态变化下的小样本人脸识别。本发明大大减小了网络实现对训练样本数量的需求,对具有光照变化和小姿态(角度小于45度)变化的人脸图像具有一定的有效性,并且在姿态变化下的小样本人脸问题上达到了具有竞争力的识别效果。

Description

一种基于滑动分块生成对抗网络的小样本人脸识别方法
技术领域
本发明属于人脸识别技术领域,具体涉及一种基于滑动分块生成对抗网络的小样本人脸识别方法。
背景技术
近年来,生物识别技术在生活、金融、法律、刑侦等应用场景中的需求越来越高,而人脸识别技术以其特征信息丰富、便于采集和高精度等优点成为最受欢迎的生物识别技术。实际应用场景中的人脸识别系统多为小样本问题,即人脸数据库中的每个人脸类别仅能采集到少数样本,我们统称这一类问题为小样本人脸识别问题(FFR)。通常,人脸图像的采集是建立在非可控自然条件之下,往往带有光照、表情、姿态、遮挡等多种变化,通常情况下,人脸图像的采集环境是在不可控的自然环境下进行的,人脸样本常常含有诸如光照、姿态、遮挡、表情、噪声等变化,而这些变化会一定程度上影响系统的识别准确率。因此,如何在含有较大干扰的小样本人脸识别问题中取得鲁棒的识别结果,便成了当前许多人脸识别方面的研究工作所关心的问题。
针对小样本人脸识别问题,研究人员提出了各种有效的算法,目前的小样本人脸识别算法可以划分为三类:
1)基于生成虚拟样本的方法,通过不同类型的转换处理生成单一类别除原始图像以外的样本图像以增加同类样本数量,增强类内变化,提高该类别特征丰富度,使FFR问题向大样本识别靠近,从而提高人脸识别精度;
2)基于通用训练集的方法,通过引入不属于原始小样本训练集的通用训练集,并从通用数据集中提取人脸本身共有的结构特征,再结合初始小样本数据集来处理FFR问题;
3)通用局部特征学习的方法,将采集到的人脸图像通过不同的分割方式进行区域划分,将整体图像变成多个不同的子区域,在子区域上提取局部特征,可以有效地克服复杂变化,能够提高FFR的识别精度。
发明内容
技术问题:为了克服现有技术中存在的不足,本发明提供一种基于滑动分块生成对抗网络的小样本人脸识别方法,该方法识别性能较高,并且对姿态变化和光照变化具有一定的鲁棒性。
技术方案:为实现上述目的,本发明采用的技术方案为:一种基于滑动分块生成对抗网络的小样本人脸识别方法,该方法包括如下步骤:
步骤1:利用水平镜像处理和轴对称处理对原始小样本数据进行虚拟图像生成,实现样本数据增强;
步骤2:基于步骤1中的生成样本结果,对所有数据样本进行十字交叉对齐处理,利用眼中心和嘴中心相连的定位线对所有样本进行姿态对齐矫正;
步骤3:采用滑动窗口法对人脸图像进行特征提取,从左到右、从上到下依次遍历样本图像,并将提取到的窗口信息按顺序送入生成对抗网络;
步骤4:利用基于对称损失、对抗损失和图像损失的组合系统损失函数实现生成对抗网络中正脸图像的生成;
步骤5:利用帽子函数法在图像合成阶段去除重叠区域的伪影;
步骤6:利用交叉熵损失函数进行人脸图像分类,建立正脸生成和人脸识别的一体化系统。
进一步的,所述步骤1的具体方法为:
步骤2.1:水平镜像对称处理是以人脸图像的中轴线为中心,令每个像素点的横坐标保持不变,而把纵坐标左右交换,其式如下:
f(x2,y2)=f(N-x1,y1)
其中,f(x1,y1)表示原始图像中像素点坐标,M、N分别表示该图像像素矩阵的行数和列数,f(x2,y2)为镜像对称后的新像素点坐标;
步骤2.2:轴对称处理是将中轴线右边部分的像素值坐标置零,其式如下:
Figure BDA0002485930230000021
其中,f(x1,y1)表示原始图像中像素点坐标,f(x1',y1')表示中轴线右边置零后的像素点坐标;
步骤2.3:对新坐标f(x1',y1')进行镜像处理得到f(x2',y2'),其式如下:
f(x2',y2')=f(N-x1',y'1)
步骤2.4:将f(x1',y1')跟f(x2',y2')相加得到轴对称生成的虚拟样本f(x3,y3),其式如下:
f(x3,y3)=f(x1',y1')+f(x2',y2')。
进一步的,所述步骤2的具体方法为:
步骤3.1:利用MTCNN算法进行人脸检测和五官定位,并确定左眼中心(xleye,yleye)、右眼中心(xreye,yreye)、鼻尖(xnose,ynose)、左嘴角(xlmouse,ylmouse)和右嘴角(xrmouse,yrmouse)的坐标位置;
步骤3.2:取连接两眼中心线段的中点,记其坐标为(xm-eye,ym-eye);
步骤3.3:取连接两嘴角线段的中点,记其坐标为(xm-mouse,ym-mouse);
步骤3.4:将步骤3.2和步骤3.3中的两个中点连接起来,得到人脸定位线;
步骤3.5:以正脸图像为基准,测定正脸-侧脸数据集中两张图片的人脸定位线夹角,将二分之一定位线夹角记作旋转夹角;
步骤3.6:以正脸图像的人脸定位线为基准,将侧脸图像进行旋转操作,顺时针/逆时针旋转,旋转角度为步骤3.5所得的旋转夹角数值。
进一步的,所述步骤3的具体方法为:
步骤4.1:选取数据集中来自多个人脸类别的正脸图像-侧脸图像样本对{IF,IP},并将其图像大小设置为224*224;
步骤4.2:利用36*36大小的正方形滑动窗口,在滑动步长为27的情况下,从左往右、从上往下依次滑动遍历样本图像得到人脸特征信息;
步骤4.3:将采集到的人脸特征信息按顺序依次排列,输入到生成对抗网络,并以交替优化的方式来训练生成器
Figure BDA0002485930230000031
和判别器
Figure BDA0002485930230000032
其式如下:
Figure BDA0002485930230000033
其中,E为期望,IF为真实的正脸图像,
Figure BDA0002485930230000034
为通过生成器生成的正脸图像。
进一步的,所述步骤4的具体方法为:
步骤4.1:对生成网络
Figure BDA0002485930230000035
添加了图像损失约束,将每张图片像看成很多个像素点的集合,求取生成图像和真实图像的差值,其式如下:
Figure BDA0002485930230000041
其中,L和W分别为每张图像的长和宽,
Figure BDA0002485930230000042
表示生成图像的像素坐标点,
Figure BDA0002485930230000043
表示真实图像的像素坐标点。
步骤4.2:对生成网络
Figure BDA0002485930230000044
添加了对称损失约束,并控制人脸姿态都是向右变化,因此只有生成图像的人脸右侧才会含有对称损失,将人脸对称中轴线右边部分记为右边人脸部分,其式如下:
Figure BDA0002485930230000045
其中,
Figure BDA0002485930230000046
为生成图像的像素点,
Figure BDA0002485930230000047
为生成图像右边部分的像素点;
步骤4.3:对生成网络
Figure BDA0002485930230000048
添加了对抗损失约束,其式如下:
Figure BDA0002485930230000049
其中,N为正脸-侧脸样本对数量,
Figure BDA00024859302300000410
为判别器,La作为生成网络的监督函数,
Figure BDA00024859302300000411
为真实的人脸正面图像,
Figure BDA00024859302300000412
为合成的人脸正面图像;
步骤4.4:生成网络中的组合损失函数是由上述所有损失函数进行加权求和,其式如下:
LG=αLc+βLs+γLa
其中,α、β、γ均为合成项系数;
步骤4.5:利用生成网络的组合损失函数LG来优化生成网络的网络参数θG,其式如下:
Figure BDA00024859302300000413
其中,
Figure BDA00024859302300000414
表示正脸—侧脸样本对中的侧脸图像,
Figure BDA00024859302300000415
则为正脸图像;
步骤4.6:在对抗网络中定义了判别网络的损失函数LD用以优化判别器
Figure BDA00024859302300000416
其式如下:
Figure BDA0002485930230000051
进一步的,所述步骤5的具体方法为:
步骤5.1:利用帽子函数法对连续的滑块图像进行图像去重融合,不同区域赋予不同权重,权重函数wi(x,y)如下所示:
Figure BDA0002485930230000052
其中,width为重叠区域的宽度,height为重叠区域的高度;
步骤5.2:参数归一化处理,其式如下:
Figure BDA0002485930230000053
其中,n为待融合图像的总数,ki(x,y)为第i个图像的权重;
步骤5.3:多个重叠区域进行融合,其式如下:
Figure BDA0002485930230000054
进一步的,所述步骤6的具体方法为:利用交叉熵损失函数来实现人脸图像的分类任务。
有益效果:与现有技术相比,本发明的技术方案具有以下有益技术效果:
本发明提供的基于滑动分块生成对抗网络的小样本人脸识别方法,着重关注于虚拟样本的生成以及人脸姿态的矫正,利用滑动窗口进行局部特征的提取,形成了一种由局部感知到整体感知的滑动重叠分块架构。基于先验知识和约束条件的组合损失函数可以从小姿态(面部偏转小于45度)人脸图像中恢复出人脸正面,并构建出生成识别一体化系统进行小样本人脸识别,取得了较有竞争力的识别率。该方法有如下几个优点:
1)充分利用水平镜像对成和轴对称的处理方法进行虚拟样本生成,以避免出现因样本过少而导致的正脸生成效果较差的现象;
2)利用十字交叉对齐法对正脸—侧脸样本对中的侧脸图像进行了对齐处理,一定程度上控制了人脸定位线的角度,保证姿态偏转在可控范围内,从而使得后期滑动分块更加准确;
3)采用滑动窗口法遍历样本图像,将人脸整体特征变成有序排列的窗口模块,在感知局部纹理特征的同时学习人脸图像的整体结构;
4)使用包含对称损失、图像损失和对抗损失的组合损失函数来优化网络,并结合图像融合方法去除融合重影,大大提高了正脸图像的生成质量;
5)建立了正脸生成和人脸识别一体化的系统,从而提高了姿态变化下小样本人脸识别的性能。
附图说明
图1是本发明提供的基于滑动分块生成对抗网络的小样本人脸识别方法的整体流程图;
图2是本发明提供的基于滑动分块生成对抗网络的小样本人脸识别方法的具体框架图;
图3是虚拟样本生成示意图;
图4是十字交叉对齐示意图;
图5是滑动分块示意图;
图6 CMU Multi-PIE正面图像生成结果图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
本发明提出一种基于滑动分块生成对抗网络的小样本人脸识别方法,该方法包括如下步骤:
步骤1:利用水平镜像处理和轴对称处理对原始小样本数据进行虚拟图像生成,实现样本数据增强;
步骤2:基于步骤1中的生成样本结果,对所有数据样本进行十字交叉对齐处理,利用眼中心和嘴中心相连的定位线对所有样本进行姿态对齐矫正;
步骤3:采用滑动窗口法对人脸图像进行特征提取,从左到右、从上到下依次遍历样本图像,并将提取到的窗口信息按顺序送入生成对抗网络;
步骤4:利用基于对称损失、对抗损失和图像损失的组合系统损失函数实现生成对抗网络中正脸图像的生成;
步骤5:利用帽子函数法在图像合成阶段去除重叠区域的伪影;
步骤6:利用交叉熵损失函数进行人脸图像分类,建立正脸生成和人脸识别的一体化系统。
进一步的,所述步骤1的具体方法为:
步骤2.1:水平镜像对称处理是以人脸图像的中轴线为中心,令每个像素点的横坐标保持不变,而把纵坐标左右交换,其式如下:
f(x2,y2)=f(N-x1,y1)
其中,f(x1,y1)表示原始图像中像素点坐标,M、N分别表示该图像像素矩阵的行数和列数,f(x2,y2)为镜像对称后的新像素点坐标;
步骤2.2:轴对称处理是将中轴线右边部分的像素值坐标置零,其式如下:
Figure BDA0002485930230000071
其中,f(x1,y1)表示原始图像中像素点坐标,f(x1',y1')表示中轴线右边置零后的像素点坐标;
步骤2.3:对新坐标f(x1',y1')进行镜像处理得到f(x2',y2'),其式如下:
f(x2',y2')=f(N-x1',y'1)
步骤2.4:将f(x1',y1')跟f(x2',y2')相加得到轴对称生成的虚拟样本f(x3,y3),其式如下:
f(x3,y3)=f(x1',y1')+f(x2',y2')。
进一步的,所述步骤2的具体方法为:
步骤3.1:利用MTCNN算法进行人脸检测和五官定位,并确定左眼中心(xleye,yleye)、右眼中心(xreye,yreye)、鼻尖(xnose,ynose)、左嘴角(xlmouse,ylmouse)和右嘴角(xrmouse,yrmouse)的坐标位置;
步骤3.2:取连接两眼中心线段的中点,记其坐标为(xm-eye,ym-eye);
步骤3.3:取连接两嘴角线段的中点,记其坐标为(xm-mouse,ym-mouse);
步骤3.4:将步骤3.2和步骤3.3中的两个中点连接起来,得到人脸定位线;
步骤3.5:以正脸图像为基准,测定正脸-侧脸数据集中两张图片的人脸定位线夹角,将二分之一定位线夹角记作旋转夹角;
步骤3.6:以正脸图像的人脸定位线为基准,将侧脸图像进行旋转操作,顺时针/逆时针旋转,旋转角度为步骤3.5所得的旋转夹角数值。
进一步的,所述步骤3的具体方法为:
步骤4.1:选取数据集中来自多个人脸类别的正脸图像-侧脸图像样本对{IF,IP},并将其图像大小设置为224*224;
步骤4.2:利用36*36大小的正方形滑动窗口,在滑动步长为27的情况下,从左往右、从上往下依次滑动遍历样本图像得到人脸特征信息;
步骤4.3:将采集到的人脸特征信息按顺序依次排列,输入到生成对抗网络,并以交替优化的方式来训练生成器
Figure BDA0002485930230000081
和判别器
Figure BDA0002485930230000082
其式如下:
Figure BDA0002485930230000083
其中,E为期望,IF为真实的正脸图像,
Figure BDA0002485930230000084
为通过生成器生成的正脸图像。
进一步的,所述步骤4的具体方法为:
步骤4.1:对生成网络
Figure BDA0002485930230000085
添加了图像损失约束,将每张图片像看成很多个像素点的集合,求取生成图像和真实图像的差值,其式如下:
Figure BDA0002485930230000086
其中,L和W分别为每张图像的长和宽,
Figure BDA0002485930230000087
表示生成图像的像素坐标点,
Figure BDA0002485930230000088
表示真实图像的像素坐标点。
步骤4.2:对生成网络
Figure BDA0002485930230000089
添加了对称损失约束,并控制人脸姿态都是向右变化,因此只有生成图像的人脸右侧才会含有对称损失,将人脸对称中轴线右边部分记为右边人脸部分,其式如下:
Figure BDA00024859302300000810
其中,
Figure BDA00024859302300000811
为生成图像的像素点,
Figure BDA00024859302300000812
为生成图像右边部分的像素点;
步骤4.3:对生成网络
Figure BDA00024859302300000813
添加了对抗损失约束,其式如下:
Figure BDA00024859302300000814
其中,N为正脸-侧脸样本对数量,
Figure BDA0002485930230000091
为判别器,La作为生成网络的监督函数,
Figure BDA0002485930230000092
为真实的人脸正面图像,
Figure BDA0002485930230000093
为合成的人脸正面图像;
步骤4.4:生成网络中的组合损失函数是由上述所有损失函数进行加权求和,其式如下:
LG=αLc+βLs+γLa
其中,α、β、γ均为合成项系数;
步骤4.5:利用生成网络的组合损失函数LG来优化生成网络的网络参数θG,其式如下:
Figure BDA0002485930230000094
其中,
Figure BDA0002485930230000095
表示正脸—侧脸样本对中的侧脸图像,
Figure BDA0002485930230000096
则为正脸图像;
步骤4.6:在对抗网络中定义了判别网络的损失函数LD用以优化判别器
Figure BDA0002485930230000097
其式如下:
Figure BDA0002485930230000098
进一步的,所述步骤5的具体方法为:
步骤5.1:利用帽子函数法对连续的滑块图像进行图像去重融合,不同区域赋予不同权重,权重函数wi(x,y)如下所示:
Figure BDA0002485930230000099
其中,width为重叠区域的宽度,height为重叠区域的高度;
步骤5.2:参数归一化处理,其式如下:
Figure BDA00024859302300000910
其中,n为待融合图像的总数,ki(x,y)为第i个图像的权重;
步骤5.3:多个重叠区域进行融合,其式如下:
Figure BDA0002485930230000101
进一步的,所述步骤6的具体方法为:利用交叉熵损失函数来实现人脸图像的分类任务。
实施案例
本章实验采用DCGAN网络架构,首先在CASIA数据库上进行预训练,基于训练好的网络模型,结合对应的损失函数在CMU Multi-PIE数据集上进行微调,选取该数据集中的337个类别的人脸样本,每个类别包含了一张正脸图像和两张小姿态(偏转为15度和30度)侧脸图像,即两个正脸图像-侧脸图像样本对,并将样本对记作{IF,IP}。
实验环节在CMU Multi-PIE和LFW两个人脸数据库上进行了测试,首先在CMUMulti-PIE数据库上进行测试,选取300个类别的人脸图像,每个类别中选择不同于训练集的另外三张小姿态(偏转角度小于45度)侧脸图像。然后在LFW数据库上进行测试,选取其中具有小姿态变化的1000个类别,每个类别选择一张人脸图像。所有测试实验统一将样本图片尺寸取作224*224;且进行了相同的光照均衡和人脸对齐等预处理。在实验中,生成网络损失函数里损失系数的取值分别为α=0.1,β=10-3,γ=10-3,而交叉熵损失系数μ=10-3,网络学习率取作λ=10-4
实验:在CMU Multi-PIE数据集上验证该方法的正脸图像生成效果,结果表明在小姿态变化情况下,该方法的合成效果很好,其生成的正面图像具有高度对称性,保留了完整的人脸整体特征和五官局部特征,且几乎没有重影。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,该方法包括如下步骤:
步骤1:利用水平镜像处理和轴对称处理对原始小样本数据进行虚拟图像生成,实现样本数据增强;
步骤2:基于步骤1中的生成样本结果,对所有数据样本进行十字交叉对齐处理,利用眼中心和嘴中心相连的定位线对所有样本进行姿态对齐矫正;
步骤3:采用滑动窗口法对人脸图像进行特征提取,从左到右、从上到下依次遍历样本图像,并将提取到的窗口信息按顺序送入生成对抗网络;
步骤4:利用基于对称损失、对抗损失和图像损失的组合系统损失函数实现生成对抗网络中正脸图像的生成;
步骤5:利用帽子函数法在图像合成阶段去除重叠区域的伪影;
步骤6:利用交叉熵损失函数进行人脸图像分类,建立正脸生成和人脸识别的一体化系统;
所述步骤3的具体方法为:
步骤4.1:选取数据集中来自多个人脸类别的正脸图像-侧脸图像样本对{IF,IP},并将其图像大小设置为224*224;
步骤4.2:利用36*36大小的正方形滑动窗口,在滑动步长为27的情况下,从左往右、从上往下依次滑动遍历样本图像得到人脸特征信息;
步骤4.3:将采集到的人脸特征信息按顺序依次排列,输入到生成对抗网络,并以交替优化的方式来训练生成器
Figure FDA0004065966860000011
和判别器
Figure FDA0004065966860000012
其式如下:
Figure FDA0004065966860000013
其中,E为期望,IF为真实的正脸图像,
Figure FDA0004065966860000014
为通过生成器生成的正脸图像;
所述步骤4的具体方法为:
步骤4.1:对生成网络
Figure FDA0004065966860000015
添加了图像损失约束,将每张图片像看成很多个像素点的集合,求取生成图像和真实图像的差值,其式如下:
Figure FDA0004065966860000016
其中,L和W分别为每张图像的长和宽,
Figure FDA0004065966860000021
表示生成图像的像素坐标点,
Figure FDA0004065966860000022
表示真实图像的像素坐标点;
步骤4.2:对生成网络
Figure FDA0004065966860000023
添加了对称损失约束,并控制人脸姿态都是向右变化,因此只有生成图像的人脸右侧才会含有对称损失,将人脸对称中轴线右边部分记为右边人脸部分,其式如下:
Figure FDA0004065966860000024
其中,
Figure FDA0004065966860000025
为生成图像的像素点,
Figure FDA0004065966860000026
为生成图像右边部分的像素点;
步骤4.3:对生成网络
Figure FDA0004065966860000027
添加了对抗损失约束,其式如下:
Figure FDA0004065966860000028
其中,N为正脸-侧脸样本对数量,
Figure FDA0004065966860000029
为判别器,La作为生成网络的监督函数,
Figure FDA00040659668600000210
为真实的人脸正面图像,
Figure FDA00040659668600000211
为合成的人脸正面图像;
步骤4.4:生成网络中的组合损失函数是由上述所有损失函数进行加权求和,其式如下:
LG=αLc+βLs+γLa
其中,α、β、γ均为合成项系数;
步骤4.5:利用生成网络的组合损失函数LG来优化生成网络的网络参数θG,其式如下:
Figure FDA00040659668600000212
其中,
Figure FDA00040659668600000213
表示正脸—侧脸样本对中的侧脸图像,
Figure FDA00040659668600000214
则为正脸图像;
步骤4.6:在对抗网络中定义了判别网络的损失函数LD用以优化判别器
Figure FDA00040659668600000215
其式如下:
Figure FDA00040659668600000216
2.根据权利要求1所述的基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,所述步骤1的具体方法为:
步骤2.1:水平镜像对称处理是以人脸图像的中轴线为中心,令每个像素点的横坐标保持不变,而把纵坐标左右交换,其式如下:
f(x2,y2)=f(N-x1,y1)
其中,f(x1,y1)表示原始图像中像素点坐标,M、N分别表示该图像像素矩阵的行数和列数,f(x2,y2)为镜像对称后的新像素点坐标;
步骤2.2:轴对称处理是将中轴线右边部分的像素值坐标置零,其式如下:
Figure FDA0004065966860000031
其中,f(x1,y1)表示原始图像中像素点坐标,f(x1',y1')表示中轴线右边置零后的像素点坐标;
步骤2.3:对新坐标f(x1',y1')进行镜像处理得到f(x2',y2'),其式如下:
f(x2',y2')=f(N-x1',y'1)
步骤2.4:将f(x1',y1')跟f(x2',y2')相加得到轴对称生成的虚拟样本f(x3,y3),其式如下:
f(x3,y3)=f(x1',y1')+f(x2',y2')。
3.根据权利要求2所述的基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,所述步骤2的具体方法为:
步骤3.1:利用MTCNN算法进行人脸检测和五官定位,并确定左眼中心(xleye,yleye)、右眼中心(xreye,yreye)、鼻尖(xnose,ynose)、左嘴角(xlmouse,ylmouse)和右嘴角(xrmouse,yrmouse)的坐标位置;
步骤3.2:取连接两眼中心线段的中点,记其坐标为(xm-eye,ym-eye);
步骤3.3:取连接两嘴角线段的中点,记其坐标为(xm-mouse,ym-mouse);
步骤3.4:将步骤3.2和步骤3.3中的两个中点连接起来,得到人脸定位线;
步骤3.5:以正脸图像为基准,测定正脸-侧脸数据集中两张图片的人脸定位线夹角,将二分之一定位线夹角记作旋转夹角;
步骤3.6:以正脸图像的人脸定位线为基准,将侧脸图像进行旋转操作,顺时针/逆时针旋转,旋转角度为步骤3.5所得的旋转夹角数值。
4.根据权利要求1所述的基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,所述步骤5的具体方法为:
步骤5.1:利用帽子函数法对连续的滑块图像进行图像去重融合,不同区域赋予不同权重,权重函数wi(x,y)如下所示:
Figure FDA0004065966860000041
其中,width为重叠区域的宽度,height为重叠区域的高度;
步骤5.2:参数归一化处理,其式如下:
Figure FDA0004065966860000042
其中,n为待融合图像的总数,ki(x,y)为第i个图像的权重;
步骤5.3:多个重叠区域进行融合,其式如下:
Figure FDA0004065966860000043
5.根据权利要求1所述的基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,所述步骤6的具体方法为:利用交叉熵损失函数来实现人脸图像的分类任务。
CN202010391894.7A 2020-05-11 2020-05-11 一种基于滑动分块生成对抗网络的小样本人脸识别方法 Active CN111680566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010391894.7A CN111680566B (zh) 2020-05-11 2020-05-11 一种基于滑动分块生成对抗网络的小样本人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010391894.7A CN111680566B (zh) 2020-05-11 2020-05-11 一种基于滑动分块生成对抗网络的小样本人脸识别方法

Publications (2)

Publication Number Publication Date
CN111680566A CN111680566A (zh) 2020-09-18
CN111680566B true CN111680566B (zh) 2023-05-16

Family

ID=72452535

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010391894.7A Active CN111680566B (zh) 2020-05-11 2020-05-11 一种基于滑动分块生成对抗网络的小样本人脸识别方法

Country Status (1)

Country Link
CN (1) CN111680566B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613460A (zh) * 2020-12-30 2021-04-06 深圳威富优房客科技有限公司 人脸生成模型的建立方法和人脸生成方法
CN112836654A (zh) * 2021-02-07 2021-05-25 上海卓繁信息技术股份有限公司 一种基于融合的表情识别方法、装置和电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108334816B (zh) * 2018-01-15 2021-11-23 桂林电子科技大学 基于轮廓对称约束生成式对抗网络的多姿态人脸识别方法
CN108334848B (zh) * 2018-02-06 2020-12-25 哈尔滨工业大学 一种基于生成对抗网络的微小人脸识别方法
CN110222668B (zh) * 2019-06-17 2020-12-22 苏州大学 基于生成对抗网络的多姿态面部表情识别方法
CN110427846B (zh) * 2019-07-19 2022-12-06 西安工业大学 一种利用卷积神经网络对不平衡小样本的人脸识别方法
CN111126307B (zh) * 2019-12-26 2023-12-12 东南大学 联合稀疏表示神经网络的小样本人脸识别方法

Also Published As

Publication number Publication date
CN111680566A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
Sabir et al. Recurrent convolutional strategies for face manipulation detection in videos
CN110287846B (zh) 一种基于注意力机制的人脸关键点检测方法
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
Zhou et al. Mict: Mixed 3d/2d convolutional tube for human action recognition
CN109284738B (zh) 不规则人脸矫正方法和系统
CN109684925B (zh) 一种基于深度图像的人脸活体检测方法及设备
CN110363116B (zh) 基于gld-gan的不规则人脸矫正方法、系统及介质
CN109684924A (zh) 人脸活体检测方法及设备
CN109671023A (zh) 一种人脸图像超分辨率二次重建方法
CN112766160A (zh) 基于多级属性编码器和注意力机制的人脸替换方法
CN108171133B (zh) 一种基于特征协方差矩阵的动态手势识别方法
CN111680566B (zh) 一种基于滑动分块生成对抗网络的小样本人脸识别方法
CN111860587B (zh) 一种用于图片小目标的检测方法
CN110826462A (zh) 一种非局部双流卷积神经网络模型的人体行为识别方法
CN108875655A (zh) 一种基于多特征的实时目标视频跟踪方法及系统
CN111210415B (zh) 一种帕金森患者面部表情低迷的检测方法
CN108280804A (zh) 一种多帧图像超分辨率重建方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN109190456A (zh) 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法
Huang et al. Segmentation of cervical cell images based on generative adversarial networks
CN111274883A (zh) 基于多尺度hog特征和深层特征的合成素描人脸识别方法
CN107784664B (zh) 一种基于k稀疏的快速鲁棒目标跟踪方法
CN106952301A (zh) 一种rgb‑d图像显著性计算方法
Zhao et al. Pooling the convolutional layers in deep convnets for action recognition
CN108765384B (zh) 一种联合流形排序和改进凸包的显著性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant