CN111126307A - 联合稀疏表示神经网络的小样本人脸识别方法 - Google Patents

联合稀疏表示神经网络的小样本人脸识别方法 Download PDF

Info

Publication number
CN111126307A
CN111126307A CN201911364701.2A CN201911364701A CN111126307A CN 111126307 A CN111126307 A CN 111126307A CN 201911364701 A CN201911364701 A CN 201911364701A CN 111126307 A CN111126307 A CN 111126307A
Authority
CN
China
Prior art keywords
face
sparse representation
nose
neural network
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911364701.2A
Other languages
English (en)
Other versions
CN111126307B (zh
Inventor
达飞鹏
杜桥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201911364701.2A priority Critical patent/CN111126307B/zh
Publication of CN111126307A publication Critical patent/CN111126307A/zh
Application granted granted Critical
Publication of CN111126307B publication Critical patent/CN111126307B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种联合稀疏表示和卷积神经网络的小样本人脸识别方法,步骤如下:首先对人脸图像进行预处理,根据人脸关键点进行人脸对齐和五官定位,并将其切割成四个局部区域;利用卷积神经网络提取更具有辨别性的局部特征和整体特征,并结合稀疏表示算法,构建分块特征字典,从而达到样本增强的效果;添加稀疏表示约束和余弦相似度来重新定义卷积神经网络的损失函数,以此缩小特征间的类内距离,扩大其类间距离;最终采用加强的稀疏表示分类来进行人脸识别。本发明识别性能较强,并且针对小样本问题中的遮挡变化具有一定的鲁棒性。

Description

联合稀疏表示神经网络的小样本人脸识别方法
技术领域
本发明属于人脸识别技术领域,具体涉及一种联合稀疏表示神经网络的小样本人脸识别方法,尤其适用于遮挡表情等人脸图像变化较大的场景。
背景技术
现代社会中,身份认证在许多场合都有着重要的应用,如公安刑侦、社会生活服务以及互联网金融等。识别技术主要包括基于指纹、虹膜、人脸等人体生物特征的方法,而人脸识别因其具有自然、友好等优势有着更广阔的应用前景。实际情况中,人脸识别系统多遇到的是小样本人脸识别问题,即人脸数据库中每人仅存一个或几个样本,这是因为在现实情况下可以采集到的人脸样本相对较少,而较少的训练样本也将会影响其识别效果。
通常情况下,人脸图像的采集环境是在不可控的自然环境下进行的,人脸样本常常含有诸如光照、姿态、遮挡、表情、噪声等变化,而这些变化会一定程度上影响系统的识别准确率。因此,如何在含有较大干扰的小样本人脸识别问题中取得鲁棒的识别结果,便成了当前许多人脸识别方面的研究工作所关心的问题。
针对小样本人脸识别问题,研究人员提出了各种有效的算法,目前的小样本人脸识别算法可以划分为三类:1)分块算法,通过将人脸分块处理,使用加权投票或其他方式解决小样本问题;2)基于原始训练图像的样本扩充法,以不同的变化(光照或姿态等)创建更多虚拟样本;3)通用学习法,利用不同类别的人脸图像之间存在相似性这一特点,通过从与小样本训练集中对象无关的人脸图像通用集中提取人脸相似特征。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种联合稀疏表示神经网络的小样本人脸识别方法,该方法方法识别性能较高,并且对遮挡变化具有一定的鲁棒性。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种联合稀疏表示神经网络的小样本人脸识别方法,包括以下步骤:
步骤1:对训练集和测试集中的人脸图像进行预处理,其中预处理包括人脸关键点检测、人脸对齐以及姿态矫正;
步骤2:基于步骤1中人脸关键点检测的定位结果,分别划分出每张人脸图像中的左眼、右眼、鼻子、嘴巴四个关键区域,由此,将预处理后的人脸图像扩充为一张整体图像和四张局部区域图像,其中局部区域图像中将左眼/右眼/鼻子/嘴巴关键区域外的非关键区域置灰;
步骤3:利用卷积神经网络CNN分别提取步骤2中整体图像和四张局部区域图像中整体特征和局部特征,并结合稀疏表示将提取到的特征构成特征向量字典D;
步骤4:以稀疏损失替换CNN中原有的损失函数,从而进行网络参数的优化;
步骤5:利用加强的稀疏表示分类DSRM,即余弦距离约束下的最小重构误差来最终确定人脸图像所属的类别。
进一步的,所述步骤1中人脸关键点检测为:定位左眼中心、右眼中心、鼻尖、左嘴角和右嘴角。
进一步的,所述步骤2的具体方法为:
步骤2.1:将预处理后的人脸图像裁剪为w*h,其中w*h为该图片的像素值;
步骤2.2:根据左眼中心坐标(xreye,yreye)和右眼重心坐标(xleye,yleye),得出左眼关键区域的左下角和右上角的坐标分别为(xleye-32,yleye-32)和(xleye+32,yleye+32)、右眼关键区域的左下角和右上角坐标分别为(xreye-32,yreye-32)和(xreye+32,yreye+32);
步骤2.3:根据鼻尖坐标(xnose,ynose),得出鼻子关键区域的左下角和右上角的坐标分别为(xnose-8,ynose-16)和(xnose+8,ynose+16);
步骤2.4:根据左、右嘴角的坐标(xlmouse,ylmouse)、(xrmouse,yrmouse),得出嘴巴关键区域的左下角和右上角坐标(xlmouse-8,ylmouse-32)和(xrmouse+8,yrmouse+32);
步骤2.5:划分出关键区域后,预处理后的人脸图像扩充为一张整体图像和四张局部区域图像,将局部区域图像中将左眼/右眼/鼻子/嘴巴关键区域外的非关键区域置灰。
进一步的,所述步骤3中的特征向量字典为:D=[d1,d2,…,dK],其中,K为人脸类别数量,k=1,2,…,K,dk代表第k个类别的特征向量,每个类别的特征向量由整体特征和局部特征构成。
进一步的,所述步骤4的具体方法为:
步骤4.1:稀疏损失由字典重构误差项、稀疏系数约束项和余弦相似约束项构成,其式如下:
Figure BDA0002338099640000021
其中,y为测试样本,x为稀疏表示系数,α为余弦距离约束系数,β为稀疏表示系数的约束系数;
步骤4.2:将
Figure BDA0002338099640000031
简化为:
L(x)=xTDTDx-(α+2)yTDx+β||x||1
步骤4.3:采用多元副样本训练法进行CNN训练,将L(x)=xTDTDx-(α+2)yTDx+β||x||1简化为下式:
Figure BDA0002338099640000032
Figure BDA0002338099640000033
其中,n为多元副样本训练法时的人脸类别数,i,j=1,2,…,n,yi为第i个类别的测试样本,xi和xj为第i个类别的测试样本对应的稀疏表示系数,θ为CNN参数;
步骤4.4:采用交替优化Adam方法,优化
Figure BDA0002338099640000034
中的变量x和θ,完成CNN的训练。
进一步的,所述步骤5中利用加强的稀疏表示分类DSRM最终确定人脸图像所属的类别,具体如下式:
rid(y)=argmin(||y+Dx||2-αyTDx)。
有益效果:本发明提供的联合稀疏表示神经网络的小样本人脸识别方法,基于人脸关键点定位进行五官分块,利用CNN提取更具辨别力的局部特征和整体特征形成特征向量字典,并采用稀疏损失函数来进行网络参数的优化,最终使用加强的稀疏表示分类进行人脸匹配。
该方法有如下几个优点:
1)根据五官定位,划分人脸关键区域,置灰非关键区域,保留整体特征的同时又保留局部特征,达到样本增强的效果;
2)结合稀疏表示算法,用CNN提取更具分辨力的局部和整体特征构成特征向量字典;
3)用稀疏损失(sparse loss)来替代softmax损失函数,更能缩小特征向量的类内距离,扩大其类间差距;
4)多重副样本训练法以及交替优化法有助于神经网络的参数的优化;
5)加强稀疏表示分类(DSRM)作为分类器,增强了本算法对遮挡变化的鲁棒性。
附图说明
图1是本发明提供的联合稀疏表示神经网络的小样本人脸识别方法的整体流程图;
图2是本发明提供的联合稀疏表示神经网络的小样本人脸识别方法的具体流程图;
图3是特征提取图,其中,(a)是特征提取,(b)是特征向量字典;
图4是基于关键点检测的人脸五官区域划分图,其中,(a)是女士,(b)是男士;
图5是不同的损失函数下的识别效果图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
一种联合稀疏表示神经网络的小样本人脸识别方法,如图1和2所示,包括以下步骤:
步骤1:对训练集和测试集中的人脸图像进行预处理,其中预处理包括人脸关键点检测、人脸对齐以及姿态矫正;
步骤2:根据人脸关键点检测结果划分出人脸的四个关键区域(左眼、右眼、鼻子、嘴巴),因此,原始图像则扩充为五张图像,分别为一张整体图像和四张局部区域图像,局部图像中应将非关键区域置灰(设置其像素值为0),从而达到样本增强的效果;
步骤3:利用卷积神经网络(CNN)提取整体图像和局部区域图像中的更具辨别力的整体特征和局部特征(如图3中(a)),并结合稀疏表示将提取到的特征构成特征向量字典D(如图3中(b));
步骤4:重新定义CNN中的损失函数:以稀疏损失(sparse loss)替换卷积神经网络中原有的损失函数(softmax loss)。稀疏损失由字典重构误差项、稀疏系数约束项和余弦相似约束项构成,能更好地扩大特征向量的类间距离,缩小类内距离;
步骤5:利用加强的稀疏表示分类the Developed Sparse RepresentationMatching(DSRM),即余弦距离约束下的最小重构误差来最终确定人脸图像所属的类别。
进一步的,所述步骤1具体包括以下步骤:
由于人脸识别效果会受人脸姿态影响,因此本方法首先对数据集中的图像进行预处理。利用MTCNN(Multi-task Cascaded Convolutional Networks)算法对训练集和测试集中的图像进行人脸关键点检测、人脸对齐、姿态矫正等处理,人脸关键点检测包括五个人脸关键点(左眼中心、右眼中心、鼻尖、左嘴角和右嘴角)的定位,包括,预处理之后的图片为标准图片。
进一步的,所述步骤2具体包括以下步骤:
在已经预处理过后的图片中,本方法先进行关键区域划分。如图4中(a)和(b)所示,基于步骤1中五官定位的结果,则四个关键矩形局部区域划分为:左眼、右眼、鼻部和嘴部。每个区域用于后期CNN的局部特征提取。其中,具体的区域划分处理方法为:
步骤2.1:将对齐过后的人脸图片裁剪为w*h,其中w*h为该图片的像素值,通常设置为224*224;
步骤2.2:根据左眼中心坐标(xreye,yreye)和右眼重心坐标(xleye,yleye),得出左眼关键区域的左下角和右上角的坐标分别为(xleye-32,yleye-32)和(xleye+32,yleye+32)、右眼关键区域的左下角和右上角坐标分别为(xreye-32,yreye-32)和(xreye+32,yreye+32);
步骤2.3:根据鼻尖坐标(xnose,ynose),得出鼻子关键区域的左下角和右上角的坐标分别为(xnose-8,ynose-16)和(xnose+8,ynose+16);
步骤2.4:根据左、右嘴角的坐标(xlmouse,ylmouse)、(xrmouse,yrmouse),得出嘴巴关键区域的左下角和右上角坐标(xlmouse-8,ylmouse-32)和(xrmouse+8,yrmouse+32);
步骤2.5:划定关键区域后,原始图像扩充为一张整体图像和四张局部区域图像,将局部图像中关键区域以外的部分置灰,即设置其像素值为0,并将用于后期的特征提取。
进一步的,所述步3具体包括以下步骤:
不同类别训练样本的人脸图像经过CNN最后的全连接层得到多维输出结果是CNN提取到的人脸特征,将这些由CNN提取得到的特征向量将构成特征字典D。
令D=[d1,d2,…,dK],K为人脸类别数量,k=1,2,…,K,dk代表第k个类别的特征向量,每个类别的特征包括了局部特征和整体特征。
结合稀疏表示算法(SRC),测试样本y则可以用字典D的线形组合来表示,如下式:
y=Dx (1)
其中,x为稀疏表示系数。
进一步的,所述步骤4具体包括以下步骤:
步骤4.1:稀疏损失由字典重构误差项、稀疏系数约束项和余弦相似约束项构成,其式如下:
Figure BDA0002338099640000051
其中,α为余弦距离约束系数,β为稀疏表示系数的约束系数,其具体数值经实验后取得最优值α=0.02,β=0.001。
步骤4.2:在计算过程中,将(2)式化简为如下去优化稀疏系数x:
L(x)=xTDTDx-(α+2)yTDx+β||x||1 (3)
步骤4.3:采用多元副样本训练法在进行CNN神经网络训练的时候,即每次用超过两类的人脸图像同时进行训练,以达到扩大特征向量类间距离并缩小类内距离的作用,因此将式(3)化简为下式:
Figure BDA0002338099640000061
Figure BDA0002338099640000062
其中,n为多元副样本训练法时的人脸类别数,i,j=1,2,…,n,yi为第i个类别的测试样本,xi和xj为第i个类别的测试样本对应的稀疏表示系数,θ为CNN参数。i和j代表每个类别的样本编号,若相同类别,则(5)的展开式带正号,若为不同类别,则展开式带负号。F(·)=1表示yi和Dxi来自同一个类别,F(·)=-1则代表来自不同类别。令式(5)作为稀疏损失sparse loss来替换softmax损失函数有助于对CNN网络参数的优化。
步骤4.4:针对式(5)中的两个变量:稀疏表示系数x和CNN网络参数θ,采用交替优化Adam的方法,先优化x再优化θ。确定x之后,式(5)分别对D和y求偏导,化简如下式:
Figure BDA0002338099640000063
Figure BDA0002338099640000064
步骤4.5;神经网络参数θ可以通过式(9)来更新:
Figure BDA0002338099640000065
其中,λ为网络学习率,取λ=1e-4,t为迭代次数。
进一步的,所述步骤5具体包括以下步骤:
基于式(3),利用lasso算法去得到稀疏系数x的优化结果。最终,利用加强的稀疏表示分类(DSRM)进行人脸身份认证,如下式:
rid(y)=argmin(||y+Dx||2-αyTDx) (4)
实施案例
本发明的联合稀疏表示神经网络的小样本人脸识别方法,基于Resnet神经网络框架实现人脸识别流程。实验选取Resnet-34框架(其中包含33层卷积层和一层全脸阶层)作为原始模型,并利用CASIA-WebFace人脸数据库对其进行训练,该数据库中包含10575个人的50万张人脸模型,并且包含姿态和表情变化。本实验选取10575类别的人脸图片,每个类别仅使用一张正脸标准图片,除此以外每个类别还选取了3张作为验证集。本实验的测试集为AR和YaleB人脸数据集。
实验:针对Resnet框架,采用原有的softmax损失函数和本方法提出的sparseloss损失函数两种情况,如图5所示,观察其平均变化率的变化趋势可以得出使用稀疏损失的神经网络收敛得更快,并在最终达到了6.25%的错误率,以此验证了本方法提出的sparse loss损失函数的有效性。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (6)

1.一种联合稀疏表示神经网络的小样本人脸识别方法,其特征在于:
步骤1:对训练集和测试集中的人脸图像进行预处理,其中预处理包括人脸关键点检测、人脸对齐以及姿态矫正;
步骤2:基于步骤1中人脸关键点检测的定位结果,分别划分出每张人脸图像中的左眼、右眼、鼻子、嘴巴四个关键区域,由此,将预处理后的人脸图像扩充为一张整体图像和四张局部区域图像,其中局部区域图像中将左眼/右眼/鼻子/嘴巴关键区域外的非关键区域置灰;
步骤3:利用卷积神经网络CNN分别提取步骤2中整体图像和四张局部区域图像中整体特征和局部特征,并结合稀疏表示将提取到的特征构成特征向量字典D;
步骤4:以稀疏损失替换CNN中原有的损失函数,从而进行网络参数的优化;
步骤5:利用加强的稀疏表示分类DSRM,即余弦距离约束下的最小重构误差来最终确定人脸图像所属的类别。
2.根据权利要求1所述的联合稀疏表示神经网络的小样本人脸识别方法,其特征在于,所述步骤1中人脸关键点检测为:定位左眼中心、右眼中心、鼻尖、左嘴角和右嘴角。
3.根据权利要求2所述的联合稀疏表示神经网络的小样本人脸识别方法,其特征在于,所述步骤2的具体方法为:
步骤2.1:将预处理后的人脸图像裁剪为w*h,其中w*h为该图片的像素值;
步骤2.2:根据左眼中心坐标(xreye,yreye)和右眼重心坐标(xleye,yleye),得出左眼关键区域的左下角和右上角的坐标分别为(xleye-32,yleye-32)和(xleye+32,yleye+32)、右眼关键区域的左下角和右上角坐标分别为(xreye-32,yreye-32)和(xreye+32,yreye+32);
步骤2.3:根据鼻尖坐标(xnose,ynose),得出鼻子关键区域的左下角和右上角的坐标分别为(xnose-8,ynose-16)和(xnose+8,ynose+16);
步骤2.4:根据左、右嘴角的坐标(xlmouse,ylmouse)、(xrmouse,yrmouse),得出嘴巴关键区域的左下角和右上角坐标(xlmouse-8,ylmouse-32)和(xrmouse+8,yrmouse+32);
步骤2.5:划分出关键区域后,预处理后的人脸图像扩充为一张整体图像和四张局部区域图像,将局部区域图像中将左眼/右眼/鼻子/嘴巴关键区域外的非关键区域置灰。
4.根据权利要求1所述的联合稀疏表示神经网络的小样本人脸识别方法,其特征在于,所述步骤3中的特征向量字典为:D=[d1,d2,…,dK],其中,K为人脸类别数量,k=1,2,…,K,dk代表第k个类别的特征向量,每个类别的特征向量由整体特征和局部特征构成。
5.根据权利要求1所述的联合稀疏表示神经网络的小样本人脸识别方法,其特征在于,所述步骤4的具体方法为:
步骤4.1:稀疏损失由字典重构误差项、稀疏系数约束项和余弦相似约束项构成,其式如下:
Figure FDA0002338099630000021
其中,y为测试样本,x为稀疏表示系数,α为余弦距离约束系数,β为稀疏表示系数的约束系数;
步骤4.2:将
Figure FDA0002338099630000022
简化为:
L(x)=xTDTDx-(α+2)yTDx+β||x||1
步骤4.3:采用多元副样本训练法进行CNN训练,将L(x)=xTDTDx-(α+2)yTDx+β||x||1简化为下式:
Figure FDA0002338099630000023
Figure FDA0002338099630000024
其中,n为多元副样本训练法时的人脸类别数,i,j=1,2,…,n,yi为第i个类别的测试样本,xi和xj为第i个类别的测试样本对应的稀疏表示系数,θ为CNN参数;
步骤4.4:采用交替优化Adam方法,优化
Figure FDA0002338099630000025
中的变量x和θ,完成CNN的训练。
6.根据权利要求1所述的联合稀疏表示神经网络的小样本人脸识别方法,其特征在于,所述步骤5中利用加强的稀疏表示分类DSRM最终确定人脸图像所属的类别,具体如下式:
rid(y)=arg min(||y+Dx||2-αyTDx)。
CN201911364701.2A 2019-12-26 2019-12-26 联合稀疏表示神经网络的小样本人脸识别方法 Active CN111126307B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911364701.2A CN111126307B (zh) 2019-12-26 2019-12-26 联合稀疏表示神经网络的小样本人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911364701.2A CN111126307B (zh) 2019-12-26 2019-12-26 联合稀疏表示神经网络的小样本人脸识别方法

Publications (2)

Publication Number Publication Date
CN111126307A true CN111126307A (zh) 2020-05-08
CN111126307B CN111126307B (zh) 2023-12-12

Family

ID=70502979

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911364701.2A Active CN111126307B (zh) 2019-12-26 2019-12-26 联合稀疏表示神经网络的小样本人脸识别方法

Country Status (1)

Country Link
CN (1) CN111126307B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111488865A (zh) * 2020-06-28 2020-08-04 腾讯科技(深圳)有限公司 图像优化方法、装置、计算机存储介质以及电子设备
CN111680566A (zh) * 2020-05-11 2020-09-18 东南大学 一种基于滑动分块生成对抗网络的小样本人脸识别方法
CN111783670A (zh) * 2020-07-02 2020-10-16 哈尔滨理工大学 一种基于神经网络和人脸组成的人脸识别方法
CN112304435A (zh) * 2020-10-10 2021-02-02 广州中大数字家庭工程技术研究中心有限公司 一种结合人脸识别的人体热成像测温方法
CN112750074A (zh) * 2021-04-06 2021-05-04 南京智莲森信息技术有限公司 小样本图像特征增强方法及系统、图像分类方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805040A (zh) * 2018-05-24 2018-11-13 复旦大学 一种基于分块的有遮挡人脸识别算法
CN109033938A (zh) * 2018-06-01 2018-12-18 上海阅面网络科技有限公司 一种基于可区分性特征融合的人脸识别方法
CN109165566A (zh) * 2018-08-01 2019-01-08 中国计量大学 一种基于新型损失函数的人脸识别卷积神经网络训练方法
CN110569756A (zh) * 2019-08-26 2019-12-13 长沙理工大学 人脸识别模型构建方法、识别方法、设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805040A (zh) * 2018-05-24 2018-11-13 复旦大学 一种基于分块的有遮挡人脸识别算法
CN109033938A (zh) * 2018-06-01 2018-12-18 上海阅面网络科技有限公司 一种基于可区分性特征融合的人脸识别方法
CN109165566A (zh) * 2018-08-01 2019-01-08 中国计量大学 一种基于新型损失函数的人脸识别卷积神经网络训练方法
CN110569756A (zh) * 2019-08-26 2019-12-13 长沙理工大学 人脸识别模型构建方法、识别方法、设备和存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
QIAO DU ETC: "Block dictionary learning-driven convolutional neural networks for fewshot face recognition" *
杜桥: "复杂情况下的小样本人脸识别问题研究" *
祁彦庆;汪烈军;吴生武;: "一种基于稀疏表达和神经网络的人脸识别算法" *
胡正平;何薇;王蒙;孙哲;任大伟;: "深度子空间联合稀疏表示单样本人脸识别算法" *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680566A (zh) * 2020-05-11 2020-09-18 东南大学 一种基于滑动分块生成对抗网络的小样本人脸识别方法
CN111488865A (zh) * 2020-06-28 2020-08-04 腾讯科技(深圳)有限公司 图像优化方法、装置、计算机存储介质以及电子设备
CN111783670A (zh) * 2020-07-02 2020-10-16 哈尔滨理工大学 一种基于神经网络和人脸组成的人脸识别方法
CN112304435A (zh) * 2020-10-10 2021-02-02 广州中大数字家庭工程技术研究中心有限公司 一种结合人脸识别的人体热成像测温方法
CN112750074A (zh) * 2021-04-06 2021-05-04 南京智莲森信息技术有限公司 小样本图像特征增强方法及系统、图像分类方法及系统
CN112750074B (zh) * 2021-04-06 2021-07-02 南京智莲森信息技术有限公司 小样本图像特征增强方法及系统、图像分类方法及系统

Also Published As

Publication number Publication date
CN111126307B (zh) 2023-12-12

Similar Documents

Publication Publication Date Title
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN109377448B (zh) 一种基于生成对抗网络的人脸图像修复方法
CN111126307B (zh) 联合稀疏表示神经网络的小样本人脸识别方法
CN107194341B (zh) Maxout多卷积神经网络融合人脸识别方法和系统
CN100423020C (zh) 一种基于结构主元分析的人脸识别方法
CN109726654A (zh) 一种基于生成对抗网络的步态识别方法
CN111160264B (zh) 一种基于生成对抗网络的漫画人物身份识别方法
CN109359541A (zh) 一种基于深度迁移学习的素描人脸识别方法
CN109934195A (zh) 一种基于信息融合的反欺骗三维人脸识别方法
CN110084149B (zh) 一种基于难样本四元组动态边界损失函数的人脸验证方法
CN107798308B (zh) 一种基于短视频训练法的人脸识别方法
CN113705290A (zh) 图像处理方法、装置、计算机设备和存储介质
CN111126240A (zh) 一种三通道特征融合人脸识别方法
CN112418041A (zh) 一种基于人脸正面化的多姿态人脸识别方法
CN113947794B (zh) 基于头部姿态偏差校正的伪造换脸增强检测方法
CN115035052B (zh) 一种基于身份差异量化的伪造换脸图像检测方法和系统
CN108564061A (zh) 一种基于二维主元分析的图像识别方法和系统
Du et al. Cross-age identity difference analysis model based on image pairs for age invariant face verification
CN109165551B (zh) 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法
Mohamed et al. Automated face recogntion system: Multi-input databases
CN111582195B (zh) 一种汉语唇语单音节识别分类器构建方法
CN106156739A (zh) 一种基于脸部轮廓分析的证件照耳朵检测与提取方法
CN118053232A (zh) 企业安全智能化管理系统及其方法
Pathak et al. Multimodal eye biometric system based on contour based E-CNN and multi algorithmic feature extraction using SVBF matching
CN117351578A (zh) 一种非交互的人脸活体检测及人脸验证方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant