CN111428689A - 一种多池化信息融合的人脸图像特征提取方法 - Google Patents

一种多池化信息融合的人脸图像特征提取方法 Download PDF

Info

Publication number
CN111428689A
CN111428689A CN202010313701.6A CN202010313701A CN111428689A CN 111428689 A CN111428689 A CN 111428689A CN 202010313701 A CN202010313701 A CN 202010313701A CN 111428689 A CN111428689 A CN 111428689A
Authority
CN
China
Prior art keywords
global
feature
pooling
image
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010313701.6A
Other languages
English (en)
Other versions
CN111428689B (zh
Inventor
栾晓
耿弘民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202010313701.6A priority Critical patent/CN111428689B/zh
Publication of CN111428689A publication Critical patent/CN111428689A/zh
Application granted granted Critical
Publication of CN111428689B publication Critical patent/CN111428689B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种多池化信息融合的人脸图像特征提取方法,属于数字图像处理技术领域。该方法为:数据预处理阶段:对于输入的人脸图像,首先利用人脸检测方法提取出含有较少背景信息的人脸,对该部分进行裁剪并重新调整裁剪图像尺寸;局部特征提取阶段:通过特征累加的形式,将全局最大池化特征与全局平均池化特征融合,得到增强的局部特征;全局特征提取阶段:通过特征连接的形式,将全局最大池化特征与全局平均池化特征融合,得到增强的全局特征;将得到的局部特征与全局特征以特征连接的方式融合,得到对人脸姿态变化鲁棒的增强特征。本发明结合全局特征信息与局部差异信息,使得融合后的特征信息能更好的表示任意姿态下人脸图像的身份特征。

Description

一种多池化信息融合的人脸图像特征提取方法
技术领域
本发明属于数字图像处理技术领域,涉及一种多池化信息融合的人脸图像特征提取方法。
背景技术
近几年来,计算机视觉的应用需求加剧,并在人脸识别,物体追踪,场景检测等多个研究方向中收获了大量成果。另一方面,监控摄像机数量和质量的上升,使得在人脸数据采集方面的难度大幅下降,人脸识别的市场应用领域得到了进一步扩展。当前,限制环境下的人脸识别率已接近饱和,研究人员已经开始将非限制条件下的人脸识别技术作为未来的研究方向。其中,跨姿态的人脸识别技术就是非限制条件下的一个重要方向,尤其是针对真实场景中的跨姿态人脸识别问题。目前,已有的人脸识别技术在真实场景环境中仍然存在诸多实际困难:首先,人脸图像容易受到外界因素的影响,如姿态变化角度,光照量,目标人脸表情等因素。这使得人脸因姿态改变而产生的刚性形变会对传统方法中基于正面人脸的特征提取方法产生极大的影响,从而影响最终的识别结果。其次,即使是不同的待识别人物,在特定角度下的对应人脸图像也会产生较大的相似性,提升了人脸识别问题的复杂性和困难程度。
在跨姿态变化下的人脸识别任务中,头部姿态变化所造成的复杂图像变化使得人脸识别的在准确性受到了影响。另外,在大多数已有的基于深度学习的人脸识别网络模型中,经过全局池化后的深层特征图通常作为输入图像的全局描述特征。而全局特征并不能有效地描述图像间的差异性,同时也造成了图像中局部显著性特征的缺失。对应于人脸识别任务中,当同类别人脸样本中存在较大差异性时(如姿态,光照等),模型所产生的全局特征的鲁棒性则会下降,并造成一定程度上的识别性能下降。而局部特征虽然具有对差异信息敏感的特点,但又相对缺乏对图像全局属性的描述能力。
发明内容
有鉴于此,本发明的目的在于提供一种多池化信息融合的人脸图像特征提取方法。
为达到上述目的,本发明提供如下技术方案:
一种多池化信息融合的人脸图像特征提取方法,该方法包括以下步骤:
S1:数据预处理阶段:对于输入的人脸图像,利用人脸检测方法提取出含有较少背景信息的主要人脸部分,同时将其尺寸重新调整为为224×224;
S2:局部特征提取阶段:通过特征累加的形式,将全局最大池化特征与全局平均池化特征融合,得到增强的局部特征;
S3:全局特征提取阶段:通过特征连接的形式,将全局最大池化特征与全局平均池化特征融合,得到增强的全局特征;
S4:特征融合阶段:将得到的局部特征与全局特征以特征连接的方式融合,得到对人脸姿态变化鲁棒的增强特征。
可选的,所述步骤S1包括以下步骤:
S11:对所有人脸图像数据进行归一化,让整个图像的均值为0,标准差为1,即使原始图像在r,g,b通道上的分布服从正态分布;
S12:利用人脸检测网络裁剪出原始图像中的人脸部分,并将裁剪出的切块图像尺寸重新拉伸为224×224。
可选的,所述步骤S2包括以下步骤:
S21:图像的局部主干特征提取阶段,将S12得到的图像作为输入送入深度卷积神经网络,并将所得特征层向量作为图像的局部特征信息;
S22:图像的局部特征最大池化,将S21得到的特征层向量进行全局最大池化,并输出池化后的最大池化特征;
S23:图像的局部特征平均池化,将S21得到的特征层向量进行全局平均池化,并输出池化后的平均池化特征;
S24:局部池化特征的融合阶段,将S22与S23所得到的两种池化特征向量进行对位累加,输出累加后的融合池化特征作为增强的局部信息鲁棒特征。
可选的,所述步骤S3包括以下步骤:
S31:图像的全局主干特征提取阶段,将S12得到的图像作为输入送入深度卷积神经网络,不同于S21所使用的网络,并将所得特征层向量作为图像的全局特征信息;
S32:图像的全局特征最大池化,将S31得到的特征层向量进行全局最大池化,并输出池化后的最大池化特征;
S33:图像的全局特征平均池化,将S31得到的特征层向量进行全局平均池化,并输出池化后的平均池化特征;
S34:全局池化特征的融合阶段,将S22与S23所得到的两种池化特征向量进行特征维度连接,输出维度连接后的融合池化特征作为增强的全局信息鲁棒特征。
本发明的有益效果在于:本发明解决了单一池化特征所造成的信息损失的问题,通过结合平均池化与最大池化,使得网络所提取出的特征既保留了输入信息的全局特征,又结合了图形信息的局部纹理特征,提升了深度卷积神经网络中特征信息的鲁棒性。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明中人脸图像预处理的流程示意图。
图2为本发明中局部特征提取的流程示意图。
图3为本发明中全局特征提取的流程示意图。
图4为本发明中增强的融合特征提取流程示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
图1为本发明所述方法中人脸图像预处理的流程示意图,该流程包含如下步骤:
步骤1:数据预处理阶段:对于输入的人脸图像,首先利用人脸检测方法提取出含有较少背景信息的主要人脸部分。
步骤101:对所有人脸图像数据进行归一化,让整个图像的均值为0,标准差为1,即使原始图像在r,g,b通道上的分布服从正态分布。
步骤102:利用预训练好的MTCNN人脸检测网络,得到输入图像中人脸的主要区域坐标位置。
步骤103:利用步骤102中获取的人脸位置信息,裁剪输入人脸图像并得到图像中含有较少背景信息的主要人脸区域图。
步骤2:将裁剪后的人脸切图尺寸重新调整为为224×224。
图2为本发明所述方法中局部特征提取的流程示意图,该方法包含如下步骤:
步骤1:图像的局部主干特征提取阶段,将输入图像作为输入送入深度卷积神经网络,并将所得特征层向量作为图像的局部特征信息。
步骤101:使用在VGG-Face2人脸数据集上预训练的ResNet-50网络模型作为主干深度卷积神经网络,将输出人脸图像送入网络模型,并将提取网络的最后一层卷积层的输出特征图,该特征图的尺寸为2048×7×7。
步骤2:图像的局部池化特征提取阶段,使用两种不同的池化方法获取不同的池化特征。
步骤201:使用窗口尺度为7×7的最大值池化,对步骤101中所得到的特征图向量做池化操作,并得到尺度为2048×1×1的局部最大池化特征。
步骤202:使用窗口尺度为7×7的平均值池化,对步骤101中所得到的特征图向量做池化操作,并得到尺度为2048×1×1的局部平均池化特征。
步骤3:图像的局部多池化特征融合阶段,使用对位累加的方式,将步骤2中得到的不同池化特征进行融合。
步骤301:使用对位累加的方式获得融合的局部多池化特征,其尺寸为2048×1×1。
步骤302:对特征进行维度压缩,压缩后的特征向量尺寸为2048×1。
图3为本发明所述方法中全局特征提取的流程示意图,该方法包含如下步骤:
步骤1:图像的全局主干特征提取阶段,将输入图像作为输入送入深度卷积神经网络,并将所得特征层向量作为图像的全局特征信息。
步骤101:使用在VGG-Face2人脸数据集上预训练的SENet-50网络模型作为主干深度卷积神经网络,将输出人脸图像送入网络模型,并将提取网络的最后一层卷积层的输出特征图,该特征图的尺寸为2048×7×7。
步骤2:图像的全局池化特征提取阶段,使用两种不同的池化方法获取不同的池化特征。
步骤201:使用窗口尺度为7×7的最大值池化,对步骤101中所得到的特征图向量做池化操作,并得到尺度为2048×1×1的全局最大池化特征。
步骤202:使用窗口尺度为7×7的平均值池化,对步骤101中所得到的特征图向量做池化操作,并得到尺度为2048×1×1的全局平均池化特征。
步骤3:图像的全局多池化特征融合阶段,使用连接的方式,将步骤2中得到的不同池化特征进行融合。
步骤301:使用连接的方式获得融合的局部多池化特征,其尺寸为4096×1×1。
步骤302:对特征进行维度压缩,压缩后的特征向量尺寸为4096×1。
图4为本发明所述方法中增强的融合特征提取流程示意图,该流程包含如下步骤:
步骤1:数据预处理阶段:对于输入的人脸图像,首先对图像数据进行归一化,利用人脸检测方法提取出含有较少背景信息的主要人脸部分的位置坐标,随后利用该坐标进行人脸图像裁剪,并将裁剪后的人脸切图尺寸重新调整为为224×224。
步骤101:对所有人脸图像数据进行归一化,让整个图像的均值为0,标准差为1,即使原始图像在r,g,b通道上的分布服从正态分布。
步骤102:利用预训练好的MTCNN人脸检测网络,得到输入图像中人脸的主要区域坐标位置。
步骤103:利用步骤102中获取的人脸位置信息,裁剪输入人脸图像并得到图像中含有较少背景信息的主要人脸区域图。
步骤104:将裁剪后的人脸切图尺寸重新调整为为224×224。
步骤2:图像的局部主干特征提取阶段,将预处理后的人脸图像输入在VGG-Face2人脸数据集上预训练后的ResNet-50网络模型,并获取增强的局部特征向量。
步骤201:使用在VGG-Face2人脸数据集上预训练的ResNet-50网络模型作为主干深度卷积神经网络,将输出人脸图像送入网络模型,并将提取网络的最后一层卷积层的输出特征图,该特征图的尺寸为2048×7×7。
步骤202:使用窗口尺度为7×7的最大值池化,对步骤201中所得到的特征图向量做池化操作,并得到尺度为2048×1×1的局部最大池化特征。
步骤203:使用窗口尺度为7×7的平均值池化,对步骤201中所得到的特征图向量做池化操作,并得到尺度为2048×1×1的局部平均池化特征。
步骤204:使用对位累加的方式获得融合的局部多池化特征,其尺寸为2048×1×1。
步骤205:对特征进行维度压缩,压缩后的局部多池化特征向量尺寸为2048×1。
步骤3:图像的全局主干特征提取阶段,将预处理后的人脸图像输入在VGG-Face2人脸数据集上预训练后的SENet-50网络模型,并获取增强的全局特征向量。
步骤301:使用在VGG-Face2人脸数据集上预训练的SENet-50网络模型作为主干深度卷积神经网络,将输出人脸图像送入网络模型,并将提取网络的最后一层卷积层的输出特征图,该特征图的尺寸为2048×7×7。
步骤302:使用窗口尺度为7×7的最大值池化,对步骤301中所得到的特征图向量做池化操作,并得到尺度为2048×1×1的全局最大池化特征。
步骤303:使用窗口尺度为7×7的平均值池化,对步骤301中所得到的特征图向量做池化操作,并得到尺度为2048×1×1的全局平均池化特征。
步骤304:使用连接的方式获得融合的全局多池化特征,其尺寸为4096×1×1。
步骤305:对特征进行维度压缩,压缩后的全局多池化特征向量尺寸为4096×1。
步骤4:特征融合阶段,将步骤2得到的局部特征与步骤3得到的全局特征以特征连接的方式融合,得到对人脸姿态变化鲁棒的增强特征。
为了验证本发明的效果,进行了在Multi-PIE人脸数据集上不同姿态角度下的人脸识别实验:
依据公开实验协议,在Multi-PIE数据集的setting2实验设置中验证了模型在各个姿态角度下的Rank-1识别率。该设置下共收录了整个数据集sessions 1,sessions 2,sessions 3,sessions4中的全部337个身份个体,其中每个个体包含了13个观察角度(从0°到±90°,每组图像的间隔角度为15°),20个光照条件变化下以及至少一组表情变化的图像。在训练阶段时使用前200个个体的所有人脸图片;在测试阶段时,验证集(gallery)选取后续137个个体中处于自然光照条件下的一张正面图片,其余的全部图片作为测试集(probe)。在实验中,统一使用本发明所提取的多池化融合特征作为图像的特征编码。另外,实验中采用了余弦相似度来度量probe集与galley集中的图片的特征编码,并将probe集图片的身份标签标注为与其最大余弦相似度的galley集图片的身份标签。Probe集图片的标注信息可由下公式得到:
Figure BDA0002458635590000061
公式(1)中,
Figure BDA0002458635590000062
分别表示probe集图片与第i个galley集图片由编码器网络所得到的特征编码,Pred表示对probe图片的身份标签预测。
表1展示了本发明提出的特征提取方法与不使用特征融合的传统方法在实验设置setting2下的rank-1识别率(%)对比结果,可以发现:第一,相比于传统的单一池化特征提取方法,本发明所提出的特征融合方法能高效提升卷积神经网络模型在识别任务中的性能;第二,本发明所提出的特征融合方法在不同姿态变化下,特别是大幅度姿态变化(人脸水平偏转角度超过60°以上)下有着优秀的表现,体现出了本方法在人脸识别任务中对姿态变化的鲁棒性。
表1数据库测试识别率(%)
Figure BDA0002458635590000071
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (4)

1.一种多池化信息融合的人脸图像特征提取方法,其特征在于:该方法包括以下步骤:
S1:数据预处理阶段:对于输入的人脸图像,利用人脸检测方法提取出含有较少背景信息的主要人脸部分,同时将其尺寸重新调整为为224×224;
S2:局部特征提取阶段:通过特征累加的形式,将全局最大池化特征与全局平均池化特征融合,得到增强的局部特征;
S3:全局特征提取阶段:通过特征连接的形式,将全局最大池化特征与全局平均池化特征融合,得到增强的全局特征;
S4:特征融合阶段:将得到的局部特征与全局特征以特征连接的方式融合,得到对人脸姿态变化鲁棒的增强特征。
2.根据权利要求1所述的一种多池化信息融合的人脸图像特征提取方法,其特征在于:所述步骤S1包括以下步骤:
S11:对所有人脸图像数据进行归一化,让整个图像的均值为0,标准差为1,即使原始图像在r,g,b通道上的分布服从正态分布;
S12:利用人脸检测网络裁剪出原始图像中的人脸部分,并将裁剪出的切块图像尺寸重新拉伸为224×224。
3.根据权利要求2所述的一种多池化信息融合的人脸图像特征提取方法,其特征在于:所述步骤S2包括以下步骤:
S21:图像的局部主干特征提取阶段,将S12得到的图像作为输入送入深度卷积神经网络,并将所得特征层向量作为图像的局部特征信息;
S22:图像的局部特征最大池化,将S21得到的特征层向量进行全局最大池化,并输出池化后的最大池化特征;
S23:图像的局部特征平均池化,将S21得到的特征层向量进行全局平均池化,并输出池化后的平均池化特征;
S24:局部池化特征的融合阶段,将S22与S23所得到的两种池化特征向量进行对位累加,输出累加后的融合池化特征作为增强的局部信息鲁棒特征。
4.根据权利要求3所述的一种多池化信息融合的人脸图像特征提取方法,其特征在于:所述步骤S3包括以下步骤:
S31:图像的全局主干特征提取阶段,将S12得到的图像作为输入送入深度卷积神经网络,不同于S21所使用的网络,并将所得特征层向量作为图像的全局特征信息;
S32:图像的全局特征最大池化,将S31得到的特征层向量进行全局最大池化,并输出池化后的最大池化特征;
S33:图像的全局特征平均池化,将S31得到的特征层向量进行全局平均池化,并输出池化后的平均池化特征;
S34:全局池化特征的融合阶段,将S22与S23所得到的两种池化特征向量进行特征维度连接,输出维度连接后的融合池化特征作为增强的全局信息鲁棒特征。
CN202010313701.6A 2020-04-20 2020-04-20 一种多池化信息融合的人脸图像特征提取方法 Active CN111428689B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010313701.6A CN111428689B (zh) 2020-04-20 2020-04-20 一种多池化信息融合的人脸图像特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010313701.6A CN111428689B (zh) 2020-04-20 2020-04-20 一种多池化信息融合的人脸图像特征提取方法

Publications (2)

Publication Number Publication Date
CN111428689A true CN111428689A (zh) 2020-07-17
CN111428689B CN111428689B (zh) 2022-07-01

Family

ID=71554163

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010313701.6A Active CN111428689B (zh) 2020-04-20 2020-04-20 一种多池化信息融合的人脸图像特征提取方法

Country Status (1)

Country Link
CN (1) CN111428689B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528956A (zh) * 2020-12-28 2021-03-19 佛山科学技术学院 基于特征重标定的人脸特征提取方法、系统、设备及介质
CN112862837A (zh) * 2021-01-27 2021-05-28 南京信息工程大学 一种基于卷积神经网络的图像处理方法和系统
CN113205111A (zh) * 2021-04-07 2021-08-03 零氪智慧医疗科技(天津)有限公司 适用于肝脏肿瘤的识别方法、装置及电子设备
CN113312965A (zh) * 2021-04-14 2021-08-27 重庆邮电大学 一种人脸未知欺骗攻击活体检测方法及系统
CN117036834A (zh) * 2023-10-10 2023-11-10 腾讯科技(深圳)有限公司 基于人工智能的数据分类方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409222A (zh) * 2018-09-20 2019-03-01 中国地质大学(武汉) 一种基于移动端的多视角人脸表情识别方法
WO2019084189A1 (en) * 2017-10-26 2019-05-02 Magic Leap, Inc. SYSTEMS AND METHODS FOR GRADIENT NORMALIZATION FOR ADAPTIVE LOSS BALANCING IN DEEP MULTITASK NETWORKS
CN109902548A (zh) * 2018-07-20 2019-06-18 华为技术有限公司 一种对象属性识别方法、装置、计算设备及系统
US20190311186A1 (en) * 2018-04-09 2019-10-10 Pegatron Corporation Face recognition method
CN110533068A (zh) * 2019-07-22 2019-12-03 杭州电子科技大学 一种基于分类卷积神经网络的图像对象识别方法
CN110619369A (zh) * 2019-09-23 2019-12-27 常熟理工学院 基于特征金字塔与全局平均池化的细粒度图像分类方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019084189A1 (en) * 2017-10-26 2019-05-02 Magic Leap, Inc. SYSTEMS AND METHODS FOR GRADIENT NORMALIZATION FOR ADAPTIVE LOSS BALANCING IN DEEP MULTITASK NETWORKS
US20190311186A1 (en) * 2018-04-09 2019-10-10 Pegatron Corporation Face recognition method
CN109902548A (zh) * 2018-07-20 2019-06-18 华为技术有限公司 一种对象属性识别方法、装置、计算设备及系统
CN109409222A (zh) * 2018-09-20 2019-03-01 中国地质大学(武汉) 一种基于移动端的多视角人脸表情识别方法
CN110533068A (zh) * 2019-07-22 2019-12-03 杭州电子科技大学 一种基于分类卷积神经网络的图像对象识别方法
CN110619369A (zh) * 2019-09-23 2019-12-27 常熟理工学院 基于特征金字塔与全局平均池化的细粒度图像分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HONGLI ZHANG: "A Face Emotion Recognition Method Using Convolutional Neural Network and Image Edge Computing", 《IEEEXPLORE》 *
曾燕等: "结合全局与局部池化的深度哈希人脸识别算法", 《西安电子科技大学学报》 *
胡正平等: "多层次深度网络融合人脸识别算法", 《模式识别与人工智能》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528956A (zh) * 2020-12-28 2021-03-19 佛山科学技术学院 基于特征重标定的人脸特征提取方法、系统、设备及介质
CN112862837A (zh) * 2021-01-27 2021-05-28 南京信息工程大学 一种基于卷积神经网络的图像处理方法和系统
CN112862837B (zh) * 2021-01-27 2023-06-23 南京信息工程大学 一种基于卷积神经网络的图像处理方法和系统
CN113205111A (zh) * 2021-04-07 2021-08-03 零氪智慧医疗科技(天津)有限公司 适用于肝脏肿瘤的识别方法、装置及电子设备
CN113312965A (zh) * 2021-04-14 2021-08-27 重庆邮电大学 一种人脸未知欺骗攻击活体检测方法及系统
CN117036834A (zh) * 2023-10-10 2023-11-10 腾讯科技(深圳)有限公司 基于人工智能的数据分类方法、装置及电子设备
CN117036834B (zh) * 2023-10-10 2024-02-23 腾讯科技(深圳)有限公司 基于人工智能的数据分类方法、装置及电子设备

Also Published As

Publication number Publication date
CN111428689B (zh) 2022-07-01

Similar Documents

Publication Publication Date Title
CN111428689B (zh) 一种多池化信息融合的人脸图像特征提取方法
CN107832672B (zh) 一种利用姿态信息设计多损失函数的行人重识别方法
CN109934176B (zh) 行人识别系统、识别方法及计算机可读存储介质
CN106682598B (zh) 一种基于级联回归的多姿态的人脸特征点检测方法
Wang et al. Robust 3D face recognition by local shape difference boosting
CN108038420B (zh) 一种基于深度视频的人体行为识别方法
CN109299643B (zh) 一种基于大姿态对准的人脸识别方法及系统
CN110490158B (zh) 一种基于多级模型的鲁棒人脸对齐方法
CN109145717B (zh) 一种在线学习的人脸识别方法
CN108182397B (zh) 一种多姿态多尺度的人脸验证方法
CN111310731A (zh) 基于人工智能的视频推荐方法、装置、设备及存储介质
US20070258627A1 (en) Face recognition system and method
JP2012160178A (ja) オブジェクト認識デバイス、オブジェクト認識を実施する方法および動的アピアランスモデルを実施する方法
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
CN110796101A (zh) 一种嵌入式平台的人脸识别方法及系统
CN112528902B (zh) 一种基于3d人脸模型的视频监控动态人脸识别方法及装置
CN109858433B (zh) 一种基于三维人脸模型识别二维人脸图片的方法及装置
CN111639580A (zh) 一种结合特征分离模型和视角转换模型的步态识别方法
CN112801945A (zh) 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置
CN114882537B (zh) 一种基于神经辐射场的手指新视角图像生成方法
CN115131405A (zh) 一种基于多模态信息的发言人跟踪方法及系统
CN113343927B (zh) 一种适用于面瘫患者的智能化人脸识别方法和系统
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
CN110276263B (zh) 一种人脸识别系统及识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant