CN111680566B - 一种基于滑动分块生成对抗网络的小样本人脸识别方法 - Google Patents
一种基于滑动分块生成对抗网络的小样本人脸识别方法 Download PDFInfo
- Publication number
- CN111680566B CN111680566B CN202010391894.7A CN202010391894A CN111680566B CN 111680566 B CN111680566 B CN 111680566B CN 202010391894 A CN202010391894 A CN 202010391894A CN 111680566 B CN111680566 B CN 111680566B
- Authority
- CN
- China
- Prior art keywords
- face
- image
- follows
- formula
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000000638 solvent extraction Methods 0.000 title abstract description 6
- 238000012545 processing Methods 0.000 claims abstract description 24
- 230000006870 function Effects 0.000 claims description 37
- 210000001508 eye Anatomy 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 5
- 238000005286 illumination Methods 0.000 abstract description 5
- 238000012549 training Methods 0.000 abstract description 5
- 230000002860 competitive effect Effects 0.000 abstract description 2
- 230000009466 transformation Effects 0.000 abstract 2
- 238000002474 experimental method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于滑动分块生成对抗网络的小样本人脸识别方法用以重点处理姿态变化,步骤如下:首先将原始数据集中的正脸—侧脸样本经过镜像变换和对称变换生成虚拟新样本;对所有样本进行十字交叉对齐处理来保障滑动分块的准确性;采用滑动窗口将人脸整体特征变为重叠局部特征,然后被依次有序地输入到生成对抗网络,利用改进的组合损失函数来生成正面人脸;最后建立生成识别一体化系统,实现姿态变化下的小样本人脸识别。本发明大大减小了网络实现对训练样本数量的需求,对具有光照变化和小姿态(角度小于45度)变化的人脸图像具有一定的有效性,并且在姿态变化下的小样本人脸问题上达到了具有竞争力的识别效果。
Description
技术领域
本发明属于人脸识别技术领域,具体涉及一种基于滑动分块生成对抗网络的小样本人脸识别方法。
背景技术
近年来,生物识别技术在生活、金融、法律、刑侦等应用场景中的需求越来越高,而人脸识别技术以其特征信息丰富、便于采集和高精度等优点成为最受欢迎的生物识别技术。实际应用场景中的人脸识别系统多为小样本问题,即人脸数据库中的每个人脸类别仅能采集到少数样本,我们统称这一类问题为小样本人脸识别问题(FFR)。通常,人脸图像的采集是建立在非可控自然条件之下,往往带有光照、表情、姿态、遮挡等多种变化,通常情况下,人脸图像的采集环境是在不可控的自然环境下进行的,人脸样本常常含有诸如光照、姿态、遮挡、表情、噪声等变化,而这些变化会一定程度上影响系统的识别准确率。因此,如何在含有较大干扰的小样本人脸识别问题中取得鲁棒的识别结果,便成了当前许多人脸识别方面的研究工作所关心的问题。
针对小样本人脸识别问题,研究人员提出了各种有效的算法,目前的小样本人脸识别算法可以划分为三类:
1)基于生成虚拟样本的方法,通过不同类型的转换处理生成单一类别除原始图像以外的样本图像以增加同类样本数量,增强类内变化,提高该类别特征丰富度,使FFR问题向大样本识别靠近,从而提高人脸识别精度;
2)基于通用训练集的方法,通过引入不属于原始小样本训练集的通用训练集,并从通用数据集中提取人脸本身共有的结构特征,再结合初始小样本数据集来处理FFR问题;
3)通用局部特征学习的方法,将采集到的人脸图像通过不同的分割方式进行区域划分,将整体图像变成多个不同的子区域,在子区域上提取局部特征,可以有效地克服复杂变化,能够提高FFR的识别精度。
发明内容
技术问题:为了克服现有技术中存在的不足,本发明提供一种基于滑动分块生成对抗网络的小样本人脸识别方法,该方法识别性能较高,并且对姿态变化和光照变化具有一定的鲁棒性。
技术方案:为实现上述目的,本发明采用的技术方案为:一种基于滑动分块生成对抗网络的小样本人脸识别方法,该方法包括如下步骤:
步骤1:利用水平镜像处理和轴对称处理对原始小样本数据进行虚拟图像生成,实现样本数据增强;
步骤2:基于步骤1中的生成样本结果,对所有数据样本进行十字交叉对齐处理,利用眼中心和嘴中心相连的定位线对所有样本进行姿态对齐矫正;
步骤3:采用滑动窗口法对人脸图像进行特征提取,从左到右、从上到下依次遍历样本图像,并将提取到的窗口信息按顺序送入生成对抗网络;
步骤4:利用基于对称损失、对抗损失和图像损失的组合系统损失函数实现生成对抗网络中正脸图像的生成;
步骤5:利用帽子函数法在图像合成阶段去除重叠区域的伪影;
步骤6:利用交叉熵损失函数进行人脸图像分类,建立正脸生成和人脸识别的一体化系统。
进一步的,所述步骤1的具体方法为:
步骤2.1:水平镜像对称处理是以人脸图像的中轴线为中心,令每个像素点的横坐标保持不变,而把纵坐标左右交换,其式如下:
f(x2,y2)=f(N-x1,y1)
其中,f(x1,y1)表示原始图像中像素点坐标,M、N分别表示该图像像素矩阵的行数和列数,f(x2,y2)为镜像对称后的新像素点坐标;
步骤2.2:轴对称处理是将中轴线右边部分的像素值坐标置零,其式如下:
其中,f(x1,y1)表示原始图像中像素点坐标,f(x1',y1')表示中轴线右边置零后的像素点坐标;
步骤2.3:对新坐标f(x1',y1')进行镜像处理得到f(x2',y2'),其式如下:
f(x2',y2')=f(N-x1',y'1)
步骤2.4:将f(x1',y1')跟f(x2',y2')相加得到轴对称生成的虚拟样本f(x3,y3),其式如下:
f(x3,y3)=f(x1',y1')+f(x2',y2')。
进一步的,所述步骤2的具体方法为:
步骤3.1:利用MTCNN算法进行人脸检测和五官定位,并确定左眼中心(xleye,yleye)、右眼中心(xreye,yreye)、鼻尖(xnose,ynose)、左嘴角(xlmouse,ylmouse)和右嘴角(xrmouse,yrmouse)的坐标位置;
步骤3.2:取连接两眼中心线段的中点,记其坐标为(xm-eye,ym-eye);
步骤3.3:取连接两嘴角线段的中点,记其坐标为(xm-mouse,ym-mouse);
步骤3.4:将步骤3.2和步骤3.3中的两个中点连接起来,得到人脸定位线;
步骤3.5:以正脸图像为基准,测定正脸-侧脸数据集中两张图片的人脸定位线夹角,将二分之一定位线夹角记作旋转夹角;
步骤3.6:以正脸图像的人脸定位线为基准,将侧脸图像进行旋转操作,顺时针/逆时针旋转,旋转角度为步骤3.5所得的旋转夹角数值。
进一步的,所述步骤3的具体方法为:
步骤4.1:选取数据集中来自多个人脸类别的正脸图像-侧脸图像样本对{IF,IP},并将其图像大小设置为224*224;
步骤4.2:利用36*36大小的正方形滑动窗口,在滑动步长为27的情况下,从左往右、从上往下依次滑动遍历样本图像得到人脸特征信息;
进一步的,所述步骤4的具体方法为:
步骤4.4:生成网络中的组合损失函数是由上述所有损失函数进行加权求和,其式如下:
LG=αLc+βLs+γLa
其中,α、β、γ均为合成项系数;
步骤4.5:利用生成网络的组合损失函数LG来优化生成网络的网络参数θG,其式如下:
进一步的,所述步骤5的具体方法为:
步骤5.1:利用帽子函数法对连续的滑块图像进行图像去重融合,不同区域赋予不同权重,权重函数wi(x,y)如下所示:
其中,width为重叠区域的宽度,height为重叠区域的高度;
步骤5.2:参数归一化处理,其式如下:
其中,n为待融合图像的总数,ki(x,y)为第i个图像的权重;
步骤5.3:多个重叠区域进行融合,其式如下:
进一步的,所述步骤6的具体方法为:利用交叉熵损失函数来实现人脸图像的分类任务。
有益效果:与现有技术相比,本发明的技术方案具有以下有益技术效果:
本发明提供的基于滑动分块生成对抗网络的小样本人脸识别方法,着重关注于虚拟样本的生成以及人脸姿态的矫正,利用滑动窗口进行局部特征的提取,形成了一种由局部感知到整体感知的滑动重叠分块架构。基于先验知识和约束条件的组合损失函数可以从小姿态(面部偏转小于45度)人脸图像中恢复出人脸正面,并构建出生成识别一体化系统进行小样本人脸识别,取得了较有竞争力的识别率。该方法有如下几个优点:
1)充分利用水平镜像对成和轴对称的处理方法进行虚拟样本生成,以避免出现因样本过少而导致的正脸生成效果较差的现象;
2)利用十字交叉对齐法对正脸—侧脸样本对中的侧脸图像进行了对齐处理,一定程度上控制了人脸定位线的角度,保证姿态偏转在可控范围内,从而使得后期滑动分块更加准确;
3)采用滑动窗口法遍历样本图像,将人脸整体特征变成有序排列的窗口模块,在感知局部纹理特征的同时学习人脸图像的整体结构;
4)使用包含对称损失、图像损失和对抗损失的组合损失函数来优化网络,并结合图像融合方法去除融合重影,大大提高了正脸图像的生成质量;
5)建立了正脸生成和人脸识别一体化的系统,从而提高了姿态变化下小样本人脸识别的性能。
附图说明
图1是本发明提供的基于滑动分块生成对抗网络的小样本人脸识别方法的整体流程图;
图2是本发明提供的基于滑动分块生成对抗网络的小样本人脸识别方法的具体框架图;
图3是虚拟样本生成示意图;
图4是十字交叉对齐示意图;
图5是滑动分块示意图;
图6 CMU Multi-PIE正面图像生成结果图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
本发明提出一种基于滑动分块生成对抗网络的小样本人脸识别方法,该方法包括如下步骤:
步骤1:利用水平镜像处理和轴对称处理对原始小样本数据进行虚拟图像生成,实现样本数据增强;
步骤2:基于步骤1中的生成样本结果,对所有数据样本进行十字交叉对齐处理,利用眼中心和嘴中心相连的定位线对所有样本进行姿态对齐矫正;
步骤3:采用滑动窗口法对人脸图像进行特征提取,从左到右、从上到下依次遍历样本图像,并将提取到的窗口信息按顺序送入生成对抗网络;
步骤4:利用基于对称损失、对抗损失和图像损失的组合系统损失函数实现生成对抗网络中正脸图像的生成;
步骤5:利用帽子函数法在图像合成阶段去除重叠区域的伪影;
步骤6:利用交叉熵损失函数进行人脸图像分类,建立正脸生成和人脸识别的一体化系统。
进一步的,所述步骤1的具体方法为:
步骤2.1:水平镜像对称处理是以人脸图像的中轴线为中心,令每个像素点的横坐标保持不变,而把纵坐标左右交换,其式如下:
f(x2,y2)=f(N-x1,y1)
其中,f(x1,y1)表示原始图像中像素点坐标,M、N分别表示该图像像素矩阵的行数和列数,f(x2,y2)为镜像对称后的新像素点坐标;
步骤2.2:轴对称处理是将中轴线右边部分的像素值坐标置零,其式如下:
其中,f(x1,y1)表示原始图像中像素点坐标,f(x1',y1')表示中轴线右边置零后的像素点坐标;
步骤2.3:对新坐标f(x1',y1')进行镜像处理得到f(x2',y2'),其式如下:
f(x2',y2')=f(N-x1',y'1)
步骤2.4:将f(x1',y1')跟f(x2',y2')相加得到轴对称生成的虚拟样本f(x3,y3),其式如下:
f(x3,y3)=f(x1',y1')+f(x2',y2')。
进一步的,所述步骤2的具体方法为:
步骤3.1:利用MTCNN算法进行人脸检测和五官定位,并确定左眼中心(xleye,yleye)、右眼中心(xreye,yreye)、鼻尖(xnose,ynose)、左嘴角(xlmouse,ylmouse)和右嘴角(xrmouse,yrmouse)的坐标位置;
步骤3.2:取连接两眼中心线段的中点,记其坐标为(xm-eye,ym-eye);
步骤3.3:取连接两嘴角线段的中点,记其坐标为(xm-mouse,ym-mouse);
步骤3.4:将步骤3.2和步骤3.3中的两个中点连接起来,得到人脸定位线;
步骤3.5:以正脸图像为基准,测定正脸-侧脸数据集中两张图片的人脸定位线夹角,将二分之一定位线夹角记作旋转夹角;
步骤3.6:以正脸图像的人脸定位线为基准,将侧脸图像进行旋转操作,顺时针/逆时针旋转,旋转角度为步骤3.5所得的旋转夹角数值。
进一步的,所述步骤3的具体方法为:
步骤4.1:选取数据集中来自多个人脸类别的正脸图像-侧脸图像样本对{IF,IP},并将其图像大小设置为224*224;
步骤4.2:利用36*36大小的正方形滑动窗口,在滑动步长为27的情况下,从左往右、从上往下依次滑动遍历样本图像得到人脸特征信息;
进一步的,所述步骤4的具体方法为:
步骤4.4:生成网络中的组合损失函数是由上述所有损失函数进行加权求和,其式如下:
LG=αLc+βLs+γLa
其中,α、β、γ均为合成项系数;
步骤4.5:利用生成网络的组合损失函数LG来优化生成网络的网络参数θG,其式如下:
进一步的,所述步骤5的具体方法为:
步骤5.1:利用帽子函数法对连续的滑块图像进行图像去重融合,不同区域赋予不同权重,权重函数wi(x,y)如下所示:
其中,width为重叠区域的宽度,height为重叠区域的高度;
步骤5.2:参数归一化处理,其式如下:
其中,n为待融合图像的总数,ki(x,y)为第i个图像的权重;
步骤5.3:多个重叠区域进行融合,其式如下:
进一步的,所述步骤6的具体方法为:利用交叉熵损失函数来实现人脸图像的分类任务。
实施案例
本章实验采用DCGAN网络架构,首先在CASIA数据库上进行预训练,基于训练好的网络模型,结合对应的损失函数在CMU Multi-PIE数据集上进行微调,选取该数据集中的337个类别的人脸样本,每个类别包含了一张正脸图像和两张小姿态(偏转为15度和30度)侧脸图像,即两个正脸图像-侧脸图像样本对,并将样本对记作{IF,IP}。
实验环节在CMU Multi-PIE和LFW两个人脸数据库上进行了测试,首先在CMUMulti-PIE数据库上进行测试,选取300个类别的人脸图像,每个类别中选择不同于训练集的另外三张小姿态(偏转角度小于45度)侧脸图像。然后在LFW数据库上进行测试,选取其中具有小姿态变化的1000个类别,每个类别选择一张人脸图像。所有测试实验统一将样本图片尺寸取作224*224;且进行了相同的光照均衡和人脸对齐等预处理。在实验中,生成网络损失函数里损失系数的取值分别为α=0.1,β=10-3,γ=10-3,而交叉熵损失系数μ=10-3,网络学习率取作λ=10-4。
实验:在CMU Multi-PIE数据集上验证该方法的正脸图像生成效果,结果表明在小姿态变化情况下,该方法的合成效果很好,其生成的正面图像具有高度对称性,保留了完整的人脸整体特征和五官局部特征,且几乎没有重影。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,该方法包括如下步骤:
步骤1:利用水平镜像处理和轴对称处理对原始小样本数据进行虚拟图像生成,实现样本数据增强;
步骤2:基于步骤1中的生成样本结果,对所有数据样本进行十字交叉对齐处理,利用眼中心和嘴中心相连的定位线对所有样本进行姿态对齐矫正;
步骤3:采用滑动窗口法对人脸图像进行特征提取,从左到右、从上到下依次遍历样本图像,并将提取到的窗口信息按顺序送入生成对抗网络;
步骤4:利用基于对称损失、对抗损失和图像损失的组合系统损失函数实现生成对抗网络中正脸图像的生成;
步骤5:利用帽子函数法在图像合成阶段去除重叠区域的伪影;
步骤6:利用交叉熵损失函数进行人脸图像分类,建立正脸生成和人脸识别的一体化系统;
所述步骤3的具体方法为:
步骤4.1:选取数据集中来自多个人脸类别的正脸图像-侧脸图像样本对{IF,IP},并将其图像大小设置为224*224;
步骤4.2:利用36*36大小的正方形滑动窗口,在滑动步长为27的情况下,从左往右、从上往下依次滑动遍历样本图像得到人脸特征信息;
所述步骤4的具体方法为:
步骤4.4:生成网络中的组合损失函数是由上述所有损失函数进行加权求和,其式如下:
LG=αLc+βLs+γLa
其中,α、β、γ均为合成项系数;
步骤4.5:利用生成网络的组合损失函数LG来优化生成网络的网络参数θG,其式如下:
2.根据权利要求1所述的基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,所述步骤1的具体方法为:
步骤2.1:水平镜像对称处理是以人脸图像的中轴线为中心,令每个像素点的横坐标保持不变,而把纵坐标左右交换,其式如下:
f(x2,y2)=f(N-x1,y1)
其中,f(x1,y1)表示原始图像中像素点坐标,M、N分别表示该图像像素矩阵的行数和列数,f(x2,y2)为镜像对称后的新像素点坐标;
步骤2.2:轴对称处理是将中轴线右边部分的像素值坐标置零,其式如下:
其中,f(x1,y1)表示原始图像中像素点坐标,f(x1',y1')表示中轴线右边置零后的像素点坐标;
步骤2.3:对新坐标f(x1',y1')进行镜像处理得到f(x2',y2'),其式如下:
f(x2',y2')=f(N-x1',y'1)
步骤2.4:将f(x1',y1')跟f(x2',y2')相加得到轴对称生成的虚拟样本f(x3,y3),其式如下:
f(x3,y3)=f(x1',y1')+f(x2',y2')。
3.根据权利要求2所述的基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,所述步骤2的具体方法为:
步骤3.1:利用MTCNN算法进行人脸检测和五官定位,并确定左眼中心(xleye,yleye)、右眼中心(xreye,yreye)、鼻尖(xnose,ynose)、左嘴角(xlmouse,ylmouse)和右嘴角(xrmouse,yrmouse)的坐标位置;
步骤3.2:取连接两眼中心线段的中点,记其坐标为(xm-eye,ym-eye);
步骤3.3:取连接两嘴角线段的中点,记其坐标为(xm-mouse,ym-mouse);
步骤3.4:将步骤3.2和步骤3.3中的两个中点连接起来,得到人脸定位线;
步骤3.5:以正脸图像为基准,测定正脸-侧脸数据集中两张图片的人脸定位线夹角,将二分之一定位线夹角记作旋转夹角;
步骤3.6:以正脸图像的人脸定位线为基准,将侧脸图像进行旋转操作,顺时针/逆时针旋转,旋转角度为步骤3.5所得的旋转夹角数值。
5.根据权利要求1所述的基于滑动分块生成对抗网络的小样本人脸识别方法,其特征在于,所述步骤6的具体方法为:利用交叉熵损失函数来实现人脸图像的分类任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010391894.7A CN111680566B (zh) | 2020-05-11 | 2020-05-11 | 一种基于滑动分块生成对抗网络的小样本人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010391894.7A CN111680566B (zh) | 2020-05-11 | 2020-05-11 | 一种基于滑动分块生成对抗网络的小样本人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111680566A CN111680566A (zh) | 2020-09-18 |
CN111680566B true CN111680566B (zh) | 2023-05-16 |
Family
ID=72452535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010391894.7A Active CN111680566B (zh) | 2020-05-11 | 2020-05-11 | 一种基于滑动分块生成对抗网络的小样本人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111680566B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613460A (zh) * | 2020-12-30 | 2021-04-06 | 深圳威富优房客科技有限公司 | 人脸生成模型的建立方法和人脸生成方法 |
CN112836654A (zh) * | 2021-02-07 | 2021-05-25 | 上海卓繁信息技术股份有限公司 | 一种基于融合的表情识别方法、装置和电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334816B (zh) * | 2018-01-15 | 2021-11-23 | 桂林电子科技大学 | 基于轮廓对称约束生成式对抗网络的多姿态人脸识别方法 |
CN108334848B (zh) * | 2018-02-06 | 2020-12-25 | 哈尔滨工业大学 | 一种基于生成对抗网络的微小人脸识别方法 |
CN110222668B (zh) * | 2019-06-17 | 2020-12-22 | 苏州大学 | 基于生成对抗网络的多姿态面部表情识别方法 |
CN110427846B (zh) * | 2019-07-19 | 2022-12-06 | 西安工业大学 | 一种利用卷积神经网络对不平衡小样本的人脸识别方法 |
CN111126307B (zh) * | 2019-12-26 | 2023-12-12 | 东南大学 | 联合稀疏表示神经网络的小样本人脸识别方法 |
-
2020
- 2020-05-11 CN CN202010391894.7A patent/CN111680566B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111680566A (zh) | 2020-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sabir et al. | Recurrent convolutional strategies for face manipulation detection in videos | |
CN110287846B (zh) | 一种基于注意力机制的人脸关键点检测方法 | |
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
Zhou et al. | Mict: Mixed 3d/2d convolutional tube for human action recognition | |
CN109284738B (zh) | 不规则人脸矫正方法和系统 | |
CN109684925B (zh) | 一种基于深度图像的人脸活体检测方法及设备 | |
CN110363116B (zh) | 基于gld-gan的不规则人脸矫正方法、系统及介质 | |
CN109684924A (zh) | 人脸活体检测方法及设备 | |
CN109671023A (zh) | 一种人脸图像超分辨率二次重建方法 | |
CN112766160A (zh) | 基于多级属性编码器和注意力机制的人脸替换方法 | |
CN108171133B (zh) | 一种基于特征协方差矩阵的动态手势识别方法 | |
CN111680566B (zh) | 一种基于滑动分块生成对抗网络的小样本人脸识别方法 | |
CN111860587B (zh) | 一种用于图片小目标的检测方法 | |
CN110826462A (zh) | 一种非局部双流卷积神经网络模型的人体行为识别方法 | |
CN108875655A (zh) | 一种基于多特征的实时目标视频跟踪方法及系统 | |
CN111210415B (zh) | 一种帕金森患者面部表情低迷的检测方法 | |
CN108280804A (zh) | 一种多帧图像超分辨率重建方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN109190456A (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
Huang et al. | Segmentation of cervical cell images based on generative adversarial networks | |
CN111274883A (zh) | 基于多尺度hog特征和深层特征的合成素描人脸识别方法 | |
CN107784664B (zh) | 一种基于k稀疏的快速鲁棒目标跟踪方法 | |
CN106952301A (zh) | 一种rgb‑d图像显著性计算方法 | |
Zhao et al. | Pooling the convolutional layers in deep convnets for action recognition | |
CN108765384B (zh) | 一种联合流形排序和改进凸包的显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |