CN109858467B - 一种基于关键点区域特征融合的人脸识别方法及装置 - Google Patents
一种基于关键点区域特征融合的人脸识别方法及装置 Download PDFInfo
- Publication number
- CN109858467B CN109858467B CN201910157377.0A CN201910157377A CN109858467B CN 109858467 B CN109858467 B CN 109858467B CN 201910157377 A CN201910157377 A CN 201910157377A CN 109858467 B CN109858467 B CN 109858467B
- Authority
- CN
- China
- Prior art keywords
- layer
- convolutional
- key point
- face
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种基于关键点区域特征融合的人脸识别方法及装置,所述方法包括:对训练集或测试集进行数据预处理;构建卷积神经网络模型;使用预处理后的训练集对所述卷积神经网络模型进行训练,提取出人脸关键点区域特征并进行融合;使用预处理后的测试集对所述卷积神经网络模型进行测试。利用卷积神经网络对提取的人脸关键点区域的特征进行融合,克服了传统人脸识别方法对光照差异、面部表情、有无遮挡等多种不确定干扰的敏感性的缺点,综合考虑人脸的全局特征和不变性特征,识别模型更具有鲁棒性和准确性,加强了不同特征之间的联系,使得提取的特征更加完善和完整,能够更加准确地描述人脸信息,提高了分类器的分类能力。
Description
技术领域
本发明实施例涉及计算机视觉处理技术领域,具体涉及一种基于关键点区域特征融合的人脸识别方法及装置。
背景技术
计算机视觉是当前深度学习领域中最为火热的一个研究方向,特别是越来越多的计算机视觉技术已经落地应用,其中应用最广泛技术之一的就是人脸识别技术,人脸识别技术也是在生物特征识别领域里多种技术不断更新迭代竞争淘汰后存活下来的技术。目前人脸识别方法主要分为两类,一类是基于表象的方法,另一类是基于特征的方法。基于表象的方法的基本思想是将二维的人脸图像转换到另外一个空间,然后用统计方法分析人脸模式;而基于特征的方法是先提取人脸的局部或者全局特征,然后送入分类器进行人脸识别。传统的人脸识别方法对光照差异、面部表情、有无遮挡等多种不确定干扰存在敏感性,导致识别准确性大幅降低。
卷积神经网络是一个受生物视觉启发、以最简化预处理操作为目的的多层感知器的变形,本质是一个前向反馈神经网络,卷积神经网络与多层感知器的最大区别是网络前几层由卷积层和池化层交替级联组成,模拟视觉皮层中用于高层次特征提取的简单细胞和复杂细胞交替级联结构。卷积层的神经元对前一层输入的一部分区域有响应,提取输入的更高层次特征;池化层的神经元对前一层输入的一部分区域求平均值或最大值,抵抗输入的轻微形变或者位移。卷积神经网络的后几层一般是若干个全连接层和一个分类器构成的输出层。使用卷积神经网络进行人脸识别是一种基于特征的人脸识别方法,区别于传统的人工特征提取和针对特征的高性能分类器设计,它的优点是通过逐层卷积降维进行特征提取,然后经过多层非线性映射,使网络可以从未经特殊处理的训练样本中,自动学习形成适应该识别任务的特征提取器和分类器,该方法降低了对训练样本的要求,而且网络的层数越多,学习到的特征更具有全局性。而现有的基于卷积神经网络的人脸识别方法中存在对特征提取的不完整与不完善的问题,导致分类器分类能力不高,人脸识别准确性和鲁棒性不够。
发明内容
为此,本发明实施例提供一种基于关键点区域特征融合的人脸识别方法及装置,以解决现有的人脸识别方法识别准确性低以及基于卷积神经网络的人脸识别方法对特征提取不完整、不完善,导致分类器分类能力不高,人脸识别准确性和鲁棒性不够的问题。
为了实现上述目的,本发明实施例提供如下技术方案:一种基于关键点区域特征融合的人脸识别方法,所述方法包括:
对训练集或测试集进行数据预处理;
构建卷积神经网络模型;
使用预处理后的训练集对所述卷积神经网络模型进行训练,提取出人脸关键点区域特征并进行融合;
使用预处理后的测试集对所述卷积神经网络模型进行测试。
优选的,所述对训练集或测试集进行数据预处理包括:
对所述训练集或测试集进行数据清洗;
对所述训练集或测试集中的人脸图片进行人脸检测,抠取出人脸图像;
将所述人脸图像进行人脸对齐处理。
优选的,所述人脸关键点区域包括左眼区域、右眼区域、鼻子区域以及嘴区域,所述人脸关键点包括左眼关键点、右眼关键点、鼻子关键点、左嘴角关键点以及右嘴角关键点。
优选的,所述左眼区域、右眼区域以及鼻子区域分别为以左眼关键点、右眼关键点以及鼻子关键点为中心点,取其周围边长为8的区域;所述嘴区域为以左嘴角关键点和右嘴角关键点的平均点为中心点,取其周围16×8的区域。
优选的,所述卷积神经网络模型采用基于ResNet50扩展改进的深度神经网络模型。
优选的,所述卷积神经网络模型包括输入层、Conv1卷积层、最大池化层、Conv2卷积层、Conv3卷积层、Conv4卷积层、Conv5卷积层、4个并列的Conv6卷积层和均值池化层;
将预处理后的224×224人脸图像输入至所述卷积神经网络模型的输入层,经输入层输出至Conv1卷积层,所述Conv1卷积层的输入为3ch×224×224、输出为64ch×112×112、卷积核尺寸为7×7,然后经Conv1卷积层输出至最大池化层,所述最大池化层的输出为64ch×56×56、卷积核尺寸为3×3,再经最大池化层输出至Conv2卷积层,所述Conv2卷积层包括由3个不同的卷积构成的3个相同的块,所述Conv2卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为64ch×56×56、64ch×56×56、256ch×56×56,再经Conv2卷积层输出至Conv3卷积层,所述Conv3卷积层包括由3个不同卷积构成的4个相同的块,所述Conv3卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为128ch×28×28、128ch×28×28、512ch×28×28,再经Conv3卷积层输出至Conv4卷积层,所述Conv4卷积层包括由3个不同卷积构成的6个相同的块,所述Conv4卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为256ch×14×14、256ch×14×14、1024ch×14×14,再经Conv4卷积层输出至Conv5卷积层,所述Conv5卷积层包括由3个不同卷积构成的3个相同的块,所述Conv5卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为512ch×7×7、512ch×7×7、1024ch×7×7;
由Conv5卷积层的中间特征表达上提取出相应人脸关键点区域的特征,所述Conv5卷积层后接入4个并列的Conv6卷积层,所述Conv6卷积层的输入为512ch×28×28、输出为256ch×7×7,每个Conv6卷积层对应提取一个人脸关键点区域的特征,将4个Conv6卷积层的输出端相连进行融合输出为1024ch×7×7,最后通过均值池化层输出1024ch×1×1。
优选的,所述训练集采用MS-Celeb-1M数据集。
优选的,所述测试集采用LFW数据集。
本发明实施例还提出了一种基于关键点区域特征融合的人脸识别装置,所述装置包括:
预处理模块,用于对训练集或测试集进行数据预处理;
网络建立模块,用于构建卷积神经网络模型;
训练模块,用于使用预处理后的训练集对所述卷积神经网络模型进行训练,提取出人脸关键点区域特征并进行融合;
测试模块,用于使用预处理后的测试集对所述卷积神经网络模型进行测试。
优选的,所述预处理模块包括:
数据清洗单元,用于对训练集或测试集进行数据清洗;
人脸检测单元,用于对训练集或测试集中的人脸图片进行人脸检测,并抠取出人脸图像;
人脸对齐单元,用于将所述人脸图像进行人脸对齐处理。
本发明实施例具有如下优点:
本发明实施例提出的一种基于关键点区域特征融合的人脸识别方法及装置,利用卷积神经网络对提取的人脸关键点区域的特征进行融合,克服了传统人脸识别方法对光照差异、面部表情、有无遮挡等多种不确定干扰的敏感性的缺点,降低了对训练集样本的要求,使得学习到的特征更具有全局性,识别模型更具有鲁棒性和准确性,综合考虑人脸的全局特征和不变性特征,保证了人脸识别模型不会因干扰因素而降低性能,相较于其他基于卷积神经网络的人脸识别方法,加强了不同特征之间的联系,使得提取的特征更加完善和完整,能够更加准确地描述人脸信息,具备得到全局最优分类的能力,提高了分类器的分类能力。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。
图1为本发明实施例1提供的一种基于关键点区域特征融合的人脸识别方法的流程示意图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示,本发明实施例提出了一种基于关键点区域特征融合的人脸识别方法,该方法包括:
S100、对训练集或测试集进行数据预处理。本实施例中,训练集采用MS-Celeb-1M数据集。
MSR IRC是目前世界上规模最大、水平最高的图像识别赛事之一,MS-Celeb-1M就是这个比赛的公开数据集,从1M个名人中,根据他们的受欢迎程度,选择100K个人,然后利用搜索引擎,根据选择的100K个人,每人搜大概100张图片,共100K×100=10M个图片。训练集中包括1000个名人,这1000个名人来自于1M个明星中随机挑选,而且经过标注,每个名人大概有20张图片,这些图片都是网上找不到的。
具体的,对训练集或测试集进行数据预处理包括:
S101、对训练集或测试集进行数据清洗。清洗后,将所有的人脸图片分别存入对应人名的文件夹中。
S102、对训练集或测试集中的人脸图片进行人脸检测,抠取出人脸图像。由于训练集或测试集图片中人脸图像的大小、位置不一致,在做进一步特征提取之前需要检测人脸,将人脸图像部分抠取出来。
S103、将人脸图像进行人脸对齐处理。除了要得到人脸外,还要进行人脸人脸对齐,只要将人脸对齐后的人脸送进网络才能得到更高的精度。给定每个人脸的五个人脸关键点,包括左眼关键点、右眼关键点、鼻子关键点、左嘴角关键点以及右嘴角关键点。
S200、构建卷积神经网络模型。卷积神经网络模型采用基于ResNet50扩展改进的深度神经网络模型。
ResNet:Residual Network,深度残差,它是2015年提出的深度卷积神经网络,一经出世,便在ImageNet中斩获图像分类、检测、定位三项的冠军,残差网络更容易优化,并且能够通过增加相当的深度来提高准确率,核心是解决了增加深度带来的退化问题,这样能够通过单纯地增加网络深度,来提高网络性能。
S300、使用预处理后的训练集对卷积神经网络模型进行训练,提取出人脸关键点区域特征并进行融合。
本实施例中,卷积神经网络模型包括输入层、Conv1卷积层、最大池化层、Conv2卷积层、Conv3卷积层、Conv4卷积层、Conv5卷积层、4个并列的Conv6卷积层和均值池化层。
具体训练过程为:将预处理后的224×224训练集人脸图像输入至卷积神经网络模型的输入层,经输入层输出至Conv1卷积层,Conv1卷积层的输入为3ch×224×224、输出为64ch×112×112、卷积核尺寸为7×7,然后经Conv1卷积层输出至最大池化层,最大池化层的输出为64ch×56×56、卷积核尺寸为3×3,再经最大池化层输出至Conv2卷积层,Conv2卷积层包括由3个不同的卷积构成的3个相同的块,Conv2卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为64ch×56×56、64ch×56×56、256ch×56×56,再经Conv2卷积层输出至Conv3卷积层,Conv3卷积层包括由3个不同卷积构成的4个相同的块,Conv3卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为128ch×28×28、128ch×28×28、512ch×28×28,再经Conv3卷积层输出至Conv4卷积层,Conv4卷积层包括由3个不同卷积构成的6个相同的块,Conv4卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为256ch×14×14、256ch×14×14、1024ch×14×14,再经Conv4卷积层输出至Conv5卷积层,Conv5卷积层包括由3个不同卷积构成的3个相同的块,Conv5卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为512ch×7×7、512ch×7×7、1024ch×7×7。
人脸关键点区域包括左眼区域、右眼区域、鼻子区域以及嘴区域,左眼区域、右眼区域以及鼻子区域分别为以左眼关键点、右眼关键点以及鼻子关键点为中心点,取其周围边长为8的区域,嘴区域为以左嘴角关键点和右嘴角关键点的平均点为中心点,取其周围16×8的区域,由Conv5卷积层的中间特征表达上提取出相应人脸关键点区域的特征。Conv5卷积层后接入4个并列的Conv6卷积层,Conv6卷积层的输入为512ch×28×28、输出为256ch×7×7,每个Conv6卷积层对应提取一个人脸关键点区域的特征,将4个Conv6卷积层的输出端相连进行融合输出为1024ch×7×7,最后通过均值池化层输出1024ch×1×1。
S400、使用测试集对卷积神经网络模型进行测试。本实施例中,测试集采用LFW数据集对模型性能进行检测。测试集数据通过与训练集相同的方式进行数据预处理,将经过数据清洗、人脸检测、人脸图像抠取以及人脸图像人脸对齐后的人脸图像输入至卷积神经网络模型进行测试。
LFW:无约束自然场景人脸识别数据集,该数据集由13000多张全世界知名人士互联网自然场景不同朝向、表情和光照环境人脸图片组成,共有5000多人,其中有1680人有2张或2张以上人脸图片,每张人脸图片都有其唯一的姓名ID和序号加以区分。
本发明实施例提出的一种基于关键点区域特征融合的人脸识别方法,克服了传统人脸识别方法对光照差异、面部表情、有无遮挡等多种不确定干扰的敏感性的缺点,利用卷积神经网络对提取的人脸关键点区域的特征进行融合,降低了对训练集样本的要求,使得学习到的特征更具有全局性,识别模型更具有鲁棒性。横向比较而言,本发明实施例采用对人脸关键点区域的特征融合手段进行人脸识别,相较于其他基于卷积神经网络的人脸识别方法,具备得到全局最优分类的能力。纵向比较而言,本发明实施例相比于传统的人脸识别,综合考虑人脸的全局特征和不变性特征,保证了人脸识别模型不会因干扰因素而降低性能。
实施例2
与上述实施例1相对应的,本实施例提出了一种基于关键点区域特征融合的人脸识别装置,该装置包括:
预处理模块,用于对训练集或测试集进行数据预处理。
网络建立模块,用于构建卷积神经网络模型。
训练模块,用于使用预处理后的训练集对所述卷积神经网络模型进行训练,提取出人脸关键点区域特征并进行融合。
测试模块,用于使用预处理后的测试集对所述卷积神经网络模型进行测试。
进一步的,预处理模块包括:
数据清洗单元,用于对训练集或测试集进行数据清洗;
人脸检测单元,用于对训练集或测试集中的人脸图片进行人脸检测,并抠取出人脸图像;
人脸对齐单元,用于将所述人脸图像进行人脸对齐处理。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (7)
1.一种基于关键点区域特征融合的人脸识别方法,其特征在于,所述方法包括:
对训练集或测试集进行数据预处理;
构建卷积神经网络模型;
使用预处理后的训练集对所述卷积神经网络模型进行训练,提取出人脸关键点区域特征并进行融合;
使用预处理后的测试集对所述卷积神经网络模型进行测试;
所述人脸关键点区域包括左眼区域、右眼区域、鼻子区域以及嘴区域,所述人脸关键点包括左眼关键点、右眼关键点、鼻子关键点、左嘴角关键点以及右嘴角关键点;
所述卷积神经网络模型采用基于ResNet50扩展改进的深度神经网络模型;所述卷积神经网络模型包括输入层、Conv1卷积层、最大池化层、Conv2卷积层、Conv3卷积层、Conv4卷积层、Conv5卷积层、4个并列的Conv6卷积层和均值池化层;
将预处理后的224×224人脸图像输入至所述卷积神经网络模型的输入层,经输入层输出至Conv1卷积层,所述Conv1卷积层的输入为3ch×224×224、输出为64ch×112×112、卷积核尺寸为7×7,然后经Conv1卷积层输出至最大池化层,所述最大池化层的输出为64ch×56×56、卷积核尺寸为3×3,再经最大池化层输出至Conv2卷积层,所述Conv2卷积层包括由3个不同的卷积构成的3个相同的块,所述Conv2卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为64ch×56×56、64ch×56×56、256ch×56×56,再经Conv2卷积层输出至Conv3卷积层,所述Conv3卷积层包括由3个不同卷积构成的4个相同的块,所述Conv3卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为128ch×28×28、128ch×28×28、512ch×28×28,再经Conv3卷积层输出至Conv4卷积层,所述Conv4卷积层包括由3个不同卷积构成的6个相同的块,所述Conv4卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为256ch×14×14、256ch×14×14、1024ch×14×14,再经Conv4卷积层输出至Conv5卷积层,所述Conv5卷积层包括由3个不同卷积构成的3个相同的块,所述Conv5卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为512ch×7×7、512ch×7×7、1024ch×7×7;
由Conv5卷积层的中间特征表达上提取出相应人脸关键点区域的特征,所述Conv5卷积层后接入4个并列的Conv6卷积层,所述Conv6卷积层的输入为512ch×28×28、输出为256ch×7×7,每个Conv6卷积层对应提取一个人脸关键点区域的特征,将4个Conv6卷积层的输出端相连进行融合输出为1024ch×7×7,最后通过均值池化层输出1024ch×1×1。
2.根据权利要求1所述的一种基于关键点区域特征融合的人脸识别方法,其特征在于,所述对训练集或测试集进行数据预处理包括:
对所述训练集或测试集进行数据清洗;
对所述训练集或测试集中的人脸图片进行人脸检测,抠取出人脸图像;
将所述人脸图像进行人脸对齐处理。
3.根据权利要求1所述的一种基于关键点区域特征融合的人脸识别方法,其特征在于,所述左眼区域、右眼区域以及鼻子区域分别为以左眼关键点、右眼关键点以及鼻子关键点为中心点,取其周围边长为8的区域;所述嘴区域为以左嘴角关键点和右嘴角关键点的平均点为中心点,取其周围16×8的区域。
4.根据权利要求1所述的一种基于关键点区域特征融合的人脸识别方法,其特征在于,所述训练集采用MS-Celeb-1M数据集。
5.根据权利要求1所述的一种基于关键点区域特征融合的人脸识别方法,其特征在于,所述测试集采用LFW数据集。
6.一种基于关键点区域特征融合的人脸识别装置,其特征在于,所述装置包括:
预处理模块,用于对训练集或测试集进行数据预处理;
网络建立模块,用于构建卷积神经网络模型;
训练模块,用于使用预处理后的训练集对所述卷积神经网络模型进行训练,提取出人脸关键点区域特征并进行融合;
测试模块,用于使用预处理后的测试集对所述卷积神经网络模型进行测试;
所述人脸关键点区域包括左眼区域、右眼区域、鼻子区域以及嘴区域,所述人脸关键点包括左眼关键点、右眼关键点、鼻子关键点、左嘴角关键点以及右嘴角关键点;
所述卷积神经网络模型采用基于ResNet50扩展改进的深度神经网络模型;所述卷积神经网络模型包括输入层、Conv1卷积层、最大池化层、Conv2卷积层、Conv3卷积层、Conv4卷积层、Conv5卷积层、4个并列的Conv6卷积层和均值池化层;
将预处理后的224×224人脸图像输入至所述卷积神经网络模型的输入层,经输入层输出至Conv1卷积层,所述Conv1卷积层的输入为3ch×224×224、输出为64ch×112×112、卷积核尺寸为7×7,然后经Conv1卷积层输出至最大池化层,所述最大池化层的输出为64ch×56×56、卷积核尺寸为3×3,再经最大池化层输出至Conv2卷积层,所述Conv2卷积层包括由3个不同的卷积构成的3个相同的块,所述Conv2卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为64ch×56×56、64ch×56×56、256ch×56×56,再经Conv2卷积层输出至Conv3卷积层,所述Conv3卷积层包括由3个不同卷积构成的4个相同的块,所述Conv3卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为128ch×28×28、128ch×28×28、512ch×28×28,再经Conv3卷积层输出至Conv4卷积层,所述Conv4卷积层包括由3个不同卷积构成的6个相同的块,所述Conv4卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为256ch×14×14、256ch×14×14、1024ch×14×14,再经Conv4卷积层输出至Conv5卷积层,所述Conv5卷积层包括由3个不同卷积构成的3个相同的块,所述Conv5卷积层中三个卷积的卷积核尺寸分别为1×1、3×3、1×1,输出分别为512ch×7×7、512ch×7×7、1024ch×7×7;
由Conv5卷积层的中间特征表达上提取出相应人脸关键点区域的特征,所述Conv5卷积层后接入4个并列的Conv6卷积层,所述Conv6卷积层的输入为512ch×28×28、输出为256ch×7×7,每个Conv6卷积层对应提取一个人脸关键点区域的特征,将4个Conv6卷积层的输出端相连进行融合输出为1024ch×7×7,最后通过均值池化层输出1024ch×1×1。
7.根据权利要求6所述一种基于关键点区域特征融合的人脸识别装置,其特征在于,所述预处理模块包括:
数据清洗单元,用于对训练集或测试集进行数据清洗;
人脸检测单元,用于对训练集或测试集中的人脸图片进行人脸检测,并抠取出人脸图像;
人脸对齐单元,用于将所述人脸图像进行人脸对齐处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910157377.0A CN109858467B (zh) | 2019-03-01 | 2019-03-01 | 一种基于关键点区域特征融合的人脸识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910157377.0A CN109858467B (zh) | 2019-03-01 | 2019-03-01 | 一种基于关键点区域特征融合的人脸识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109858467A CN109858467A (zh) | 2019-06-07 |
CN109858467B true CN109858467B (zh) | 2021-05-07 |
Family
ID=66899612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910157377.0A Active CN109858467B (zh) | 2019-03-01 | 2019-03-01 | 一种基于关键点区域特征融合的人脸识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109858467B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325190B (zh) * | 2020-04-01 | 2023-06-30 | 京东方科技集团股份有限公司 | 一种表情识别方法、装置、计算机设备及可读存储介质 |
CN112241682B (zh) * | 2020-09-14 | 2022-05-10 | 同济大学 | 一种基于分块以及多层信息融合的端到端行人搜索方法 |
CN112132011B (zh) * | 2020-09-22 | 2024-04-26 | 深圳市捷顺科技实业股份有限公司 | 一种面部识别方法、装置、设备及存储介质 |
CN112990273B (zh) * | 2021-02-18 | 2021-12-21 | 中国科学院自动化研究所 | 面向压缩域的视频敏感人物识别方法、系统及设备 |
CN113936343A (zh) * | 2021-12-20 | 2022-01-14 | 南京星耀智能科技有限公司 | 一种基于多局部特征投票的人脸图像辩伪方法 |
CN115840834B (zh) * | 2023-02-20 | 2023-05-23 | 深圳市视美泰技术股份有限公司 | 一种人脸数据库快速搜索方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599830A (zh) * | 2016-12-09 | 2017-04-26 | 中国科学院自动化研究所 | 人脸关键点定位方法及装置 |
CN107315995A (zh) * | 2017-05-18 | 2017-11-03 | 中国科学院上海微系统与信息技术研究所 | 一种基于拉普拉斯对数脸及卷积神经网络的人脸识别方法 |
CN107766794A (zh) * | 2017-09-22 | 2018-03-06 | 天津大学 | 一种特征融合系数可学习的图像语义分割方法 |
CN109360183A (zh) * | 2018-08-20 | 2019-02-19 | 中国电子进出口有限公司 | 一种基于卷积神经网络的人脸图像质量评估方法和系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107316015B (zh) * | 2017-06-19 | 2020-06-30 | 南京邮电大学 | 一种基于深度时空特征的高精度面部表情识别方法 |
CN107545243A (zh) * | 2017-08-07 | 2018-01-05 | 南京信息工程大学 | 基于深度卷积模型的黄种人脸识别方法 |
KR101877683B1 (ko) * | 2017-08-18 | 2018-07-12 | 연세대학교 산학협력단 | 학습을 이용한 얼굴 인식 장치 및 방법 |
CN108764164B (zh) * | 2018-05-30 | 2020-12-08 | 华中科技大学 | 一种基于可变形卷积网络的人脸检测方法及系统 |
CN109002766B (zh) * | 2018-06-22 | 2021-07-09 | 北京邮电大学 | 一种表情识别方法及装置 |
CN109344693B (zh) * | 2018-08-13 | 2021-10-26 | 华南理工大学 | 一种基于深度学习的人脸多区域融合表情识别方法 |
-
2019
- 2019-03-01 CN CN201910157377.0A patent/CN109858467B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599830A (zh) * | 2016-12-09 | 2017-04-26 | 中国科学院自动化研究所 | 人脸关键点定位方法及装置 |
CN107315995A (zh) * | 2017-05-18 | 2017-11-03 | 中国科学院上海微系统与信息技术研究所 | 一种基于拉普拉斯对数脸及卷积神经网络的人脸识别方法 |
CN107766794A (zh) * | 2017-09-22 | 2018-03-06 | 天津大学 | 一种特征融合系数可学习的图像语义分割方法 |
CN109360183A (zh) * | 2018-08-20 | 2019-02-19 | 中国电子进出口有限公司 | 一种基于卷积神经网络的人脸图像质量评估方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109858467A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109858467B (zh) | 一种基于关键点区域特征融合的人脸识别方法及装置 | |
Takalkar et al. | Image based facial micro-expression recognition using deep learning on small datasets | |
CN110728209B (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
JP7386545B2 (ja) | 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置 | |
Baccouche et al. | Sequential deep learning for human action recognition | |
CN111814661B (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN110008909B (zh) | 一种基于ai的实名制业务实时稽核系统 | |
CN106682628B (zh) | 一种基于多层深度特征信息的人脸属性分类方法 | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
Huang et al. | Joint cross-modal and unimodal features for RGB-D salient object detection | |
CN109740539B (zh) | 基于超限学习机和融合卷积网络的3d物体识别方法 | |
CN111582092B (zh) | 一种基于人体骨架的行人异常行为检测方法 | |
CN106408037A (zh) | 图像识别方法及装置 | |
CN111126240A (zh) | 一种三通道特征融合人脸识别方法 | |
CN111353447A (zh) | 一种基于图卷积网络的人体骨架行为识别方法 | |
Soumya et al. | Emotion recognition from partially occluded facial images using prototypical networks | |
CN112200110A (zh) | 一种基于深度干扰分离学习的人脸表情识别方法 | |
Pachón-Suescún et al. | Detection of Scratches on Cars by Means of CNN and R-CNN | |
CN113011253B (zh) | 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质 | |
Duffner et al. | A neural scheme for robust detection of transparent logos in TV programs | |
CN113591692A (zh) | 一种多视图身份识别方法 | |
CN111881803A (zh) | 一种基于改进YOLOv3的畜脸识别方法 | |
KR20180092453A (ko) | Cnn과 스테레오 이미지를 이용한 얼굴 인식 방법 | |
Zaidan et al. | A novel hybrid module of skin detector using grouping histogram technique for Bayesian method and segment adjacent-nested technique for neural network | |
Abraham | Digital image forgery detection approaches: A review and analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230118 Address after: 406A, Floor 4, Building 1, No. 25, North Taipingzhuang Road, Haidian District, Beijing, 100088 Patentee after: BEIJING YUNHE INTERACTIVE INFORMATION TECHNOLOGY Co.,Ltd. Address before: 100039 No.106, 1st floor, building 14, yard B, Yongding Road, Haidian District, Beijing Patentee before: BEIJING SHIZHEN INTELLIGENT TECHNOLOGY Co.,Ltd. |