CN107742107B - 人脸图像分类方法、装置及服务器 - Google Patents

人脸图像分类方法、装置及服务器 Download PDF

Info

Publication number
CN107742107B
CN107742107B CN201710983963.1A CN201710983963A CN107742107B CN 107742107 B CN107742107 B CN 107742107B CN 201710983963 A CN201710983963 A CN 201710983963A CN 107742107 B CN107742107 B CN 107742107B
Authority
CN
China
Prior art keywords
classification
facial image
gender
neural networks
category set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710983963.1A
Other languages
English (en)
Other versions
CN107742107A (zh
Inventor
李宣平
杨帆
李岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN201710983963.1A priority Critical patent/CN107742107B/zh
Publication of CN107742107A publication Critical patent/CN107742107A/zh
Priority to US16/755,301 priority patent/US11417148B2/en
Priority to PCT/CN2018/109794 priority patent/WO2019076227A1/zh
Application granted granted Critical
Publication of CN107742107B publication Critical patent/CN107742107B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例公开了一种人脸图像分类方法、装置及服务器,包括下述步骤:获取待分类的人脸图像;将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识;根据所述卷积神经网模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行预设内容理解分类,以使决定所述卷积神经网络模型输出分类结果的数据中包括区分不同性别的差异属性。卷积神经网络模型采用对应性别独有的特点和常规特征相结合的方式,对人脸图像进行评判或比较,使最终输出的分类结果中性别差异化得以凸显。

Description

人脸图像分类方法、装置及服务器
技术领域
本发明实施例涉及模型算法领域,尤其是一种人脸图像分类方法、装置及服务器。
背景技术
随着智能移动终端运算能力的提高,智能移动终端能够搭载越来越复杂且功能强大的应用程序。通过对用户面部图像进行拍摄,并将拍摄的面部图像进行数据处理,根据数据处理结果对用户面部图像进行评价或分类。
现有技术中,在对人体面部图像进行比对和应用分类时,采用深度学习的方法,主要的方法流程为:按照预设的工作目的,反复训练卷积神经网络模型至该模型收敛为止,卷积神经网络模型训练完成后,将欲分类或处理的人脸图像输入到训练好的卷积神经网络模型中,卷积神经网络模型根据训练学习到的权重比例,对该人脸图像进行分类或处理,由此能够看出,深度学习的方法通过反复训练,将模型训练成为一个具有一定辨识和判断能力的系统。
本发明创造的发明人在研究中发现,现有技术中通过训练卷积神经网络模型对图像进行处理时,仅限于把人脸图像之间的差别的问题看成单一问题来解决,能够决定人脸图像最终分类的数据中不具有不同种类人类的差异化属性,具有不同类别属性的差异被同质化处理,造成分类精准度有限,卷积神经网络模型输出不稳定的现象出现。
发明内容
本发明实施例提供能够有效提高分类准确率且稳定性较高的人脸分类方法、装置及智能终端。
为解决上述技术问题,本发明创造的实施例采用的一个技术方案是:提供一种人脸图像分类方法,包括下述步骤:
获取待分类的人脸图像;
将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识;
根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行预设内容理解分类,以使决定所述卷积神经网络模型输出分类结果的数据中包括区分不同性别的差异属性。
具体地,所述卷积神经网络模型包括:第一分类集和第二分类集,所述第一分类集根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识,所述第二分类集根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行内容理解分类。
具体地,所述第一分类集中至少包括两个全连接层和一个分类层,所述第一分类集以所述卷积层中倒数第二个卷积层输出的中间数据作为输入信号;所述第二分类集中包括至少两个全连接层与一个分类层,所述第二分类集以所述卷积层中倒数第一个卷积层输出的中间数据作为输入信号。
具体地,所述卷积神经网络模型通过下述步骤训练形成:
获取标记有性别和期望分类信息的训练样本集;
将所述训练样本集输入到所述卷积神经网络模型中,训练所述第一分类集直至收敛;
当所述第一分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,训练所述第二分类集直至收敛;
当所述第二分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,采用较小学习率对所述第一分类集和第二分类集进行微调,至所述卷积神经网络模型处于收敛状态时为止。
具体地,所述将所述训练样本集输入到所述卷积神经网络模型中,训练所述第一分类集直至收敛的步骤,具体包括下述步骤:
将所述训练样本集输入到所述卷积神经网络模型中,获取所述第一分类集输出的性别分类结果;
通过止损函数比对所述标记性别与所述性别分类结果是否一致;
当所述标记性别与所述性别分类结果不一致时,反复循环迭代的更新所述第一分类集之前卷积层的权值,至所述标记性别与所述性别分类结果一致时结束;
所述标记性别与所述性别分类结果一致时,固定所述第一分类集之前卷积层的权值。
具体地,所述当所述第一分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,训练所述第二分类集直至收敛的步骤,具体包括下述步骤:
将所述训练样本集输入到所述卷积神经网络模型中,获取所述第二分类集输出的激励分类结果;
通过止损函数比对所述期望分类信息与所述激励分类结果是否一致;
当所述期望分类信息与所述激励分类结果不一致时,反复循环迭代的更新位于所述第一分类集与第二分类集之间卷积层的权值,至所述期望分类信息与所述激励分类结果一致时结束;
所述标记性别与所述性别分类结果一致时,固定位于所述第一分类集与第二分类集之间卷积层的权值。
具体地,所述将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识的步骤之后,还包括下述步骤:
根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行颜值打分,以使决定所述卷积神经网络模型输出颜值分数的数据中包括区分不同性别的差异属性。
具体地,所述内容理解分类包括:图像相似度比对、种族分类识别或年龄识别。
为解决上述技术问题,本发明实施例还提供一种人脸图像分类装置,所述人脸图像分类装置包括:
采集模块,用于获取待分类的人脸图像;
性别分类模块,用于将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识;
内容理解分类模块,用于根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行预设内容理解分类,以使决定所述卷积神经网络模型输出分类结果的数据中包括区分不同性别的差异属性。
具体地,所述卷积神经网络模型包括:第一分类集和第二分类集,所述第一分类集根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识,所述第二分类集根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行内容理解分类。
具体地,所述第一分类集中至少包括两个全连接层和一个分类层,所述第一分类集以所述卷积层中倒数第二个卷积层输出的中间数据作为输入信号;所述第二分类集中包括至少两个全连接层与一个分类层,所述第二分类集以所述卷积层中倒数第一个卷积层输出的中间数据作为输入信号。
具体地,所述人脸图像分类装置还包括:
第一采集模块,用于获取标记有性别和期望分类信息的训练样本集;
第一训练子模块,用于将所述训练样本集输入到所述卷积神经网络模型中,训练所述第一分类集直至收敛;
第二训练子模块,用于当所述第一分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,训练所述第二分类集直至收敛;
第三训练子模块,用于当所述第二分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,采用较小学习率对所述第一分类集和第二分类集进行微调,至所述卷积神经网络模型处于收敛状态时为止。
具体地,所述人脸图像分类装置还包括:
第一分类子模块,用于将所述训练样本集输入到所述卷积神经网络模型中,获取所述第一分类集输出的性别分类结果;
第一比对子模块,用于通过止损函数比对所述标记性别与所述性别分类结果是否一致;
第一处理子模块,用于当所述标记性别与所述性别分类结果不一致时,反复循环迭代的更新所述第一分类集之前卷积层的权值,至所述标记性别与所述性别分类结果一致时结束;
第一固定子模块,用于所述标记性别与所述性别分类结果一致时,固定所述第一分类集之前卷积层的权值。
具体地,所述人脸图像分类装置还包括:
第二分类子模块,用于将所述训练样本集输入到所述卷积神经网络模型中,获取所述第二分类集输出的激励分类结果;
第二比对子模块,用于通过止损函数比对所述期望分类信息与所述激励分类结果是否一致;
第二处理子模块,用于当所述期望分类信息与所述激励分类结果不一致时,反复循环迭代的更新位于所述第一分类集与第二分类集之间卷积层的权值,至所述期望分类信息与所述激励分类结果一致时结束;
第二固定子模块,用于所述标记性别与所述性别分类结果一致时,固定位于所述第一分类集与第二分类集之间卷积层的权值。
具体地,所述人脸图像分类装置还包括:
颜值分类子模块,用于根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行颜值打分,以使决定所述卷积神经网络模型输出颜值分数的数据中包括区分不同性别的差异属性。
具体地,所述内容理解分类包括:图像相似度比对、种族分类识别或年龄识别。
为解决上述技术问题,本发明实施例还提供一种服务器,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行权利要求上述所述的人脸图像分类方法。
本发明实施例的有益效果是:利用卷积神经网络模型对人脸图像进行分类时,首先根据卷积神经网络模型卷积层输出的中间数据,对人脸图像的性别信息进行分类,获得该人脸图像的性别分类信息,获得人脸图像的性别分类后,采用卷积层输出的最终数据对人脸图像进行预设目的内容理解分类,此时,由于人脸图像的性别信息已经确认,对人脸图像的进行进内容理解分类时,卷积神经网络模型采用对应性别独有的特点和常规特征相结合的方式,对人脸图像进行评判或比较,使最终输出的分类结果中性别差异化得以凸显,同时由于性别特征的体现,使模型能够采用对应的标准不同性别的人群进行分类,细化了分类标准,增加了分类的准确性,也提高了卷积神经网络模型输出的稳定性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例卷积神经网络模型组成示意图;
图2为本发明实施例采用卷积神经网络模型进行人脸图像分类方法基本流程示意图;
图3为本发明实施例卷积神经网络模型训练方法基本流程示意图;
图4为本发明实施例人脸图像分类方法第一分类集的训练流程图;
图5为本发明实施例人脸图像分类方法第二分类集的训练流程图;
图6为本发明实施例人脸图像分类装置基本结构示意图;
图7为本发明实施例服务器基本结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如101、102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
卷积神经网络的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用影响函数核小的sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数。卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。
卷积神经网络主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。由于卷积神经网络的特征检测层通过训练数据进行学习,所以在使用卷积神经网络时,避免了显示的特征抽取,而隐式地从训练数据中进行学习;再者由于同一特征映射面上的神经元权值相同,所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势。
卷积神经网络模型由:卷积层、全连接和分类层组成。其中,卷积层被用于对人脸图像的局部进行感知,且卷积层通常以级联的方式进行连接,级联中位置越靠后的卷积层能够感知越全局化的信息。
全连接层在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。全连接层连接在卷积层输出位置,能够感知被测人脸图像的全具化特征。
分类层连接在全连接层的输出端,分类层输出的每一维均表示被测人脸图像属于该类别的概率。
请参阅图1,图1为本实施例卷积神经网络模型组成示意图。
如图1所示,卷积神经网络模型包括:
第一分类集和第二分类集,所述第一分类集根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识,所述第二分类集根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行内容理解分类。
其中,第一分类集中至少包括两个全连接层和一个分类层,所述第一分类集以所述卷积层中倒数第二个卷积层输出的中间数据作为输入信号;所述第二分类集中包括至少两个全连接层与一个分类层,所述第二分类集以所述卷积层中倒数第一个卷积层输出的中间数据作为输入信号。
具体的,卷积神经网络模型中包括:四个层级连接的卷积层、第一分类集和第二分类集。其中,第一分类集包括:两个全连接层(FC1和FC2)和一个分类层(softmax1),其中两个全连接层层级连接并以第三个卷积层的输出的数据作为输入信号,分类层以最后一个全连接层输出的数据作为输入信号。第二分类集包括:两个全连接层(FC3和FC4)和一个分类层(softmax2),其中两个全连接层层级连接并以第四个卷积层的输出的数据作为输入信号,分类层以最后一个全连接层输出的数据作为输入信号。
卷积神经网络模型的构成不局限于此,根据具体应用场景的不同,卷积神经网络模型能够由(不限于):五个、六个、七个或者更多个卷积层构成,同时构成卷积神经网络模型的全连接层与分类层也能够根据不同分类应用进行增加,如在进行内容理解分类时需要加入不同年龄段的差异属性时,能够增加一个分类集,即增加两个全连接层与一个分类层。
第一分类集与卷积层之间的连接位置,也并非固定在倒数第一个卷积层的输出位置,根据对于处理能力和处理时间的不同,在上述要求降低的情况下,第一分类集能够连接在任意一个卷积层的输出位置。
对于性别进行分类,分类类别较少,性别的可辨识性较强,能够采用全局化程度更低的数据进行分类,故第一分类集采用卷积层输出的中间数据进行分类。而对于内容理解分类涉及到更为细致的类别划分,因此,需要全局化程度更高的数据进行分类,以增加分类的准确性,因此,第二分类集采用卷积层输出的最终数据进行分类。
请参阅图2,图2为本实施例采用卷积神经网络模型进行人脸图像分类方法基本流程示意图。
如图2所示,包括下述步骤:
S1100、获取待分类的人脸图像;
人脸图像的获取,能够通过拍摄装置实时获取、用户上传已有照片或从影像视频中以帧为单位获取的图像资料等。
S1200、将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识。
将获取的人脸图像输入到已经训练完成的卷积神经网络模型中,第一分类集首先根据倒数第二个卷积层输出的中间数据,对人脸图像的性别进行辨识。
第一分类集被训练用于对人脸图像进行性别分类,将人脸图像输入到卷积神经网络模型中,第一分类集之前的卷积层,递进式的对人脸图像的局部特征进行感知,而第一分类集中将卷积层输出的数据转化为卷积核为1x1的卷积,分类层根据全连接层的输出,计算出人脸图像不同性别的概率,以其中概率较大的性别作为人脸图像的性别属性。如,第一分类集计算的结果中,输入人脸图像的男性和女性的概率为[0.8 0.2],则定义该人脸图像的性别为男性。
S1300、根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行预设内容理解分类,以使决定所述卷积神经网络模型输出分类结果的数据中包括区分不同性别的差异属性。
第一分类集在确认人脸图像的性别后,卷积神经网络模型中的第二分类集获取最后一个卷积层输出的数据。第二分类集中的全连接层将卷积层输出的最终数据转化为卷积核为1x1的卷积,分类层根据全连接层的输出,计算出人脸图像的内容理解分类。内容理解分类包括(不限于)图像相似度比对、种族分类识别或年龄识别。如在进行人脸图像比对时,输入的人脸图像与多个比对图像之间的相似度分别为[0.7 0.15 0.05 0.1]则人脸图像与第一个比对图像之间的相似度最高。
由于,在进行内容理解分类时,已经对人脸图像的性别进行了分类,卷积神经网络模型训练时已经学习了不同性别之间都有的差异特征,如就相同的特征而言不同性别的审美中,眉毛的粗细对于不同的性别而言具有认同观点,一般认为女性的眉毛较细为美丽的特征,而对于男性则认为眉毛较粗为美。在卷积神经网络模型训练时,通过预期的设定使卷积神经网络模型学习到这一判定标准,在进行内容理解分类时通过获知的性别分类,对人脸图像中的眉毛进行分类识别。如内容理解分类为对人脸颜值进行打分时,首先判断出性别,然后判断眉毛在该性别中颜值的级别。
由于不同性别具有一些该类性别所独有的差异特征,在卷积神经网络模型训练时,使其学习到不同性别所具有的差异特征(如女性脸部较窄,男性脸部较宽;女性眼睛相对男性更大;女性头发长度更长),在进行图像分类时,判别人脸图像的性别属性后,就能采用学习到的差异特征对人脸图像进行评判。
上述实施方式利用卷积神经网络模型对人脸图像进行分类时,首先根据卷积神经网络模型卷积层输出的中间数据,对人脸图像的性别信息进行分类,获得该人脸图像的性别分类信息,获得人脸图像的性别分类后,采用卷积层输出的最终数据对人脸图像进行预设目的内容理解分类,此时,由于人脸图像的性别信息已经确认,对人脸图像的进行进内容理解分类时,卷积神经网络模型采用对应性别独有的特点和常规特征相结合的方式,对人脸图像进行评判或比较,使最终输出的分类结果中性别差异化得以凸显,同时由于性别特征的体现,使模型能够采用对应的标准不同性别的人群进行分类,细化了分类标准,增加了分类的准确性,也提高了卷积神经网络模型输出的稳定性。
具体地请参阅图3,图3为本实施例卷积神经网络模型训练方法基本流程示意图。
如图3所示,训练方法包括如下步骤:
S2100、获取标记有性别和期望分类信息的训练样本集;
收集一批人脸图像,先标注人脸图像的性别,然后根据不同性别,标注人脸图像的颜值高低,高低范围四类:高颜值,一般高颜值,一般低颜值,低颜值(以内容理解分类为:人脸图像颜值分数为例进行说明。在应用场景不同时,内容理解分类为种族时,分类范围为:黄种人、白种人和黑人;内容理解为年龄段时,分类范围能够为以年为单位的年龄阶段。)
其中,性别与期望分类信息均是由人工根据对相应人脸图像的认识和主流评价标准做出的,均为人员对卷积神经网络模型对该人脸图像输出结果的期望。
S2200、将所述训练样本集输入到所述卷积神经网络模型中,训练所述第一分类集直至收敛;
将收集到的训练样本集输入到卷积神经网络模型中,对卷积神经网络模型的第一分类集进行训练,即对卷积神经网络模型的性别分类准确率进行训练,当训练结果第一分类集的性别分类准确率达到预设标准时,如准确率达到99%时,第一分类集的训练完成,第一训练集训练至收敛。
S2300、当所述第一分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,训练所述第二分类集直至收敛;
第一分类集训练至结束后,将训练样本集重新输入到卷积神经网络模型中,对卷积神经网络模型的第二分类集进行训练,即对卷积神经网络模型的内容理解分类进行训练,当训练结果第二分类集的内容理解分类准确率达到预设标准时,如准确率达到99%时,第二分类集的训练完成,第二训练集训练至收敛。
S2400、当所述第二分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,采用较小学习率对所述第一分类集和第二分类集进行微调,至所述卷积神经网络模型处于收敛状态时为止。
当第一和第二分类集均训练至收敛后,将训练样本集重新输入到卷积神经网络模型中,通过采用较小学习率的方法,对第一分类集和第二分类集的权值进行微调,由于第一分类集与第二分类集的权值参数是相对独立训练确定的,需要在统一数据下对第一分类集和第二分类集进行进一步的协调训练,将训练样本集重新输入到卷积神经网络模型中,采用较小学习率(即采用较小的比率调整第一分类集、第二分类集和卷积层的权值),直至整个卷积神经网络模型输出的内容理解分类和性别分类的准确率均为99%时,卷积神经网络模型处于收敛状态。
通过对第一训练集和第二训练集的权值进行分别训练,在第一训练集与第二训练集分别稳定后,再对第一训练集和第二训练集进行协调训练,至整个卷积神经网络模型收敛,使卷积神经网络模型既学习到了对人脸图像进行性别分类,同时也训练学习了卷积神经网络模型对内容理解分类的学习。
具体的,请参阅图4为本实施例人脸图像分类方法第一分类集的训练流程图。
如图4所示,步骤S2200之后还包括下述步骤:
S2210、将所述训练样本集输入到所述卷积神经网络模型中,获取所述第一分类集输出的性别分类结果;
将训练样本集输入到卷积神经网络模型中,并获得第一分类集输出的性别分类结果。
S2220、通过止损函数比对所述标记性别与所述性别分类结果是否一致;
止损函数是用于检测卷积神经网络模型中模型分类参照信息,与期望的分类判断信息是否具有一致性的检测函数。
止损函数比对输入的训练样本集中的人脸图像的标记性别,与分类性别结果是否一致,一致时则进行下一张人脸图像的训练,不一致时则转到执行步骤S2230。
S2230、当所述标记性别与所述性别分类结果不一致时,反复循环迭代的更新所述第一分类集之前卷积层的权值,至所述标记性别与所述性别分类结果一致时结束;
当卷积神经网络模型的输出分类性别与标记性别的期望结果不一致时,需要对卷积神经网络模型中的权值进行校正,具体的调整第一分类集之前卷积层的权值,以使第一分类集的输出性别分类结果与标记性别的期望结果相同时为止。
S2240、所述标记性别与所述性别分类结果一致时,固定所述第一分类集之前卷积层的权值。
当标记性别与性别分类结果一致时,固定第一分类集之前卷积层的权值,即单独训练第二分类集时,第一分类集之前卷积层的权值不再进行调整。
具体的,请参阅图5,图5为本实施例人脸图像分类方法第二分类集的训练流程图。
如图5所示,步骤S2300之后还包括下述步骤:
S2310、将所述训练样本集输入到所述卷积神经网络模型中,获取所述第二分类集输出的激励分类结果;
将训练样本集输入到卷积神经网络模型中,并获得第二分类集输出的激励分类结果。
S2320、通过止损函数比对所述期望分类信息与所述激励分类结果是否一致;
期望分类信息是指,人工对该训练样本集中人脸图像的定义,如人工对训练样本集中的人脸图像打分为90分,则该分数是人工对该人脸图像给出的期望值,即期望卷积神经网络模型能够对该人脸图像打出90分。
激励分类结果则是指第二分类集为响应输入的人脸图像输出的一个分类结果,当的人分类集收敛时,其输出的分类结果接近期望分类结果。当第二分类集离散时,激励分类结果则是一个随机数。当卷积神经网络模型中存在Sigmoid激活函数时,则激励分类结果则是一个0至1之间的随机数。
止损函数比对输入的训练样本集中的人脸图像的期望分类信息,与激励分类结果是否一致,一致时则进行下一张人脸图像的训练,不一致时则转到执行步骤S2330。
S2330、当所述期望分类信息与所述激励分类结果不一致时,反复循环迭代的更新位于所述第一分类集与第二分类集之间卷积层的权值,至所述期望分类信息与所述激励分类结果一致时结束;
当第二分类集输出激励分类结果与期望分类信息不一致时,需要对位于第一分类集与第二分类集之间卷积层的权值进行校正,至使第二分类集激励分类结果与期望分类信息相同时为止。
S2340、所述标记性别与所述性别分类结果一致时,固定位于所述第一分类集与第二分类集之间卷积层的权值。
当集激励分类结果与期望分类信息一致时,固定第一分类集与第二分类集之间卷积层的权值。
在一些实施方式中,卷积神经网络模型被训练用于,对人脸图像进行颜值打分。
具体的,根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行颜值打分,以使决定所述卷积神经网络模型输出颜值分数的数据中包括区分不同性别的差异属性。
对人脸图像进行颜值打分的卷积神经网络模型的训练由下述方法进行。
收集一批人脸图像,先标注人脸图像的性别,然后根据不同性别,标注人脸图像的颜值高低,高低范围四类:高颜值,一般高颜值,一般低颜值,低颜值。
构建一个卷积神经网络模型,网络包括卷积网络,全连接网络,分类网络三个部分。其中把第三个卷积层的特征接两个全连接,然后接一个分类器(softmax层),用于检测人脸性别。把第四个卷积层的特征提取出来,接两个全连接,然后接一个分类器(softmax层),用于检测人脸颜值。
请参阅图1,利用标注的训练数据和搭建的卷积神经网络模型,训练神经网络模型。在训练模型的时候,首先训练conv1,conv2,conv3,FC1,FC2和softmax1,模型可以训练学习到性别特征;等性别模型收敛后,固定conv1,conv2,conv3的权值,训练conv4,FC3,FC4和softmax2,模型可以学习到颜值特征;等颜值模型收敛后,同时训练conv1,conv2,conv3,conv4,FC3,FC4和softmax2,并选用较小的学习率,微调颜值模型,获得准确的颜值分类网络。
卷积神经网络模型预测人脸图像颜值分类类别,以及颜值类别对应的概率值。利用颜值分类类别和对应的概率值,估计人脸颜值,并映射值0-100分,分数越高,颜值越高。如卷积神经网络模型输出的:高颜值,一般高颜值,一般低颜值,低颜值概率值为[0.7 0.120.15 0.03],则该人脸图像为高颜值,则其颜值分数的取值为70。
为解决上述技术问题,本发明实施例还提供一种人脸图像分类装置。
具体请参阅图6,图6为本实施例人脸图像分类装置基本结构示意图。
如图6所示,一种人脸图像分类装置,人脸图像分类装置包括:采集模块2100、性别分类模块2200和内容理解分类模块2300。其中,采集模块2100用于获取待分类的人脸图像;性别分类模块2200用于将人脸图像输入到预设的卷积神经网络模型中,并根据卷积神经网络模型的卷积层输出的中间数据,对人脸图像的性别信息进行辨识;内容理解分类模块2300用于根据卷积神经网络模型的卷积层输出的最终数据,在性别信息限定的范围内对人脸图像进行预设内容理解分类,以使决定卷积神经网络模型输出分类结果的数据中包括区分不同性别的差异属性。
人脸图像分类装置利用卷积神经网络模型对人脸图像进行分类时,首先根据卷积神经网络模型卷积层输出的中间数据,对人脸图像的性别信息进行分类,获得该人脸图像的性别分类信息,获得人脸图像的性别分类后,采用卷积层输出的最终数据对人脸图像进行预设目的内容理解分类,此时,由于人脸图像的性别信息已经确认,对人脸图像的进行进内容理解分类时,卷积神经网络模型采用对应性别独有的特点和常规特征相结合的方式,对人脸图像进行评判或比较,使最终输出的分类结果中性别差异化得以凸显,同时由于性别特征的体现,使模型能够采用对应的标准不同性别的人群进行分类,细化了分类标准,增加了分类的准确性,也提高了卷积神经网络模型输出的稳定性。
在一些实施方式中,卷积神经网络模型包括:第一分类集和第二分类集,第一分类集根据卷积神经网络模型的卷积层输出的中间数据,对人脸图像的性别信息进行辨识,第二分类集根据卷积神经网络模型的卷积层输出的最终数据,在性别信息限定的范围内对人脸图像进行内容理解分类。
在一些实施方式中,第一分类集中至少包括两个全连接层和一个分类层,第一分类集以卷积层中倒数第二个卷积层输出的中间数据作为输入信号;第二分类集中包括至少两个全连接层与一个分类层,第二分类集以卷积层中倒数第一个卷积层输出的中间数据作为输入信号。
在一些实施方式中,人脸图像分类装置还包括:第一采集模块、第一训练子模块、第二训练子模块和第三训练子模块。其中,第一采集模块用于获取标记有性别和期望分类信息的训练样本集;第一训练子模块用于将训练样本集输入到卷积神经网络模型中,训练第一分类集直至收敛;第二训练子模块用于当第一分类集收敛后,将训练样本集输入到卷积神经网络模型中,训练第二分类集直至收敛;第三训练子模块用于当第二分类集收敛后,将训练样本集输入到卷积神经网络模型中,采用较小学习率对第一分类集和第二分类集进行微调,至卷积神经网络模型处于收敛状态时为止。
在一些实施方式中,人脸图像分类装置还包括:第一分类子模块、第一比对子模块、第一处理子模块和第一固定子模块。其中,第一分类子模块用于将训练样本集输入到卷积神经网络模型中,获取第一分类集输出的性别分类结果;第一比对子模块用于通过止损函数比对标记性别与性别分类结果是否一致;第一处理子模块用于当标记性别与性别分类结果不一致时,反复循环迭代的更新第一分类集之前卷积层的权值,至标记性别与性别分类结果一致时结束;第一固定子模块用于标记性别与性别分类结果一致时,固定第一分类集之前卷积层的权值。
在一些实施方式中,人脸图像分类装置还包括:第二分类子模块、第二比对子模块、第二处理子模块和第二固定子模块。其中,第二分类子模块用于将训练样本集输入到卷积神经网络模型中,获取第二分类集输出的激励分类结果;第二比对子模块用于通过止损函数比对期望分类信息与激励分类结果是否一致;第二处理子模块用于当期望分类信息与激励分类结果不一致时,反复循环迭代的更新位于第一分类集与第二分类集之间卷积层的权值,至期望分类信息与激励分类结果一致时结束;第二固定子模块用于标记性别与性别分类结果一致时,固定位于第一分类集与第二分类集之间卷积层的权值。
在一些实施方式中,人脸图像分类装置还包括:颜值分类子模块,用于根据卷积神经网络模型的卷积层输出的最终数据,在性别信息限定的范围内对人脸图像进行颜值打分,以使决定卷积神经网络模型输出颜值分数的数据中包括区分不同性别的差异属性。
在一些实施方式中,内容理解分类包括:图像相似度比对、种族分类识别或年龄识别。
本实施例还提供一种服务器。具体请参阅图7,图7为本实施例服务器基本结构示意图。
如图7所示,服务器包括:一个或多个处理器3110和存储器3120;一个或多个应用程序,其中一个或多个应用程序被存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序配置用于:
获取待分类的人脸图像;
将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识;
根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行预设内容理解分类,以使决定所述卷积神经网络模型输出分类结果的数据中包括区分不同性别的差异属性。
服务器利用卷积神经网络模型对人脸图像进行分类时,首先根据卷积神经网络模型卷积层输出的中间数据,对人脸图像的性别信息进行分类,获得该人脸图像的性别分类信息,获得人脸图像的性别分类后,采用卷积层输出的最终数据对人脸图像进行预设目的内容理解分类,此时,由于人脸图像的性别信息已经确认,对人脸图像的进行进内容理解分类时,卷积神经网络模型采用对应性别独有的特点和常规特征相结合的方式,对人脸图像进行评判或比较,使最终输出的分类结果中性别差异化得以凸显,同时由于性别特征的体现,使模型能够采用对应的标准不同性别的人群进行分类,细化了分类标准,增加了分类的准确性,也提高了卷积神经网络模型输出的稳定性。
需要指出的是本实施列中,服务器的存储器内存储用于实现本实施例中人脸图像分类方法中的所有程序,处理器能够调用该存储器内的程序,执行上述人脸图像分类方法所列举的所有功能。由于服务器实现的功能在本实施例中的人脸图像分类方法进行了详述,在此不再进行赘述。
需要说明的是,本发明的说明书及其附图中给出了本发明的较佳的实施例,但是,本发明可以通过许多不同的形式来实现,并不限于本说明书所描述的实施例,这些实施例不作为对本发明内容的额外限制,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。并且,上述各技术特征继续相互组合,形成未在上面列举的各种实施例,均视为本发明说明书记载的范围;进一步地,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (15)

1.一种人脸图像分类方法,其特征在于,包括下述步骤:
获取待分类的人脸图像;
将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识;
根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行预设内容理解分类,以使决定所述卷积神经网络模型输出分类结果的数据中包括区分不同性别的差异属性;
所述卷积神经网络模型包括:第一分类集和第二分类集,所述第一分类集根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识,所述第二分类集根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行内容理解分类。
2.根据权利要求1所述的人脸图像分类方法,其特征在于,所述第一分类集中至少包括两个全连接层和一个分类层,所述第一分类集以所述卷积层中倒数第二个卷积层输出的中间数据作为输入信号;所述第二分类集中包括至少两个全连接层与一个分类层,所述第二分类集以所述卷积层中倒数第一个卷积层输出的中间数据作为输入信号。
3.根据权利要求1所述的人脸图像分类方法,其特征在于,所述卷积神经网络模型通过下述步骤训练形成:
获取标记有性别和期望分类信息的训练样本集;
将所述训练样本集输入到所述卷积神经网络模型中,训练所述第一分类集直至收敛;
当所述第一分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,训练所述第二分类集直至收敛;
当所述第二分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,采用较小学习率对所述第一分类集和第二分类集进行微调,至所述卷积神经网络模型处于收敛状态时为止。
4.根据权利要求3所述的人脸图像分类方法,其特征在于,所述将所述训练样本集输入到所述卷积神经网络模型中,训练所述第一分类集直至收敛的步骤,具体包括下述步骤:
将所述训练样本集输入到所述卷积神经网络模型中,获取所述第一分类集输出的性别分类结果;
通过止损函数比对所述标记性别与所述性别分类结果是否一致;
当所述标记性别与所述性别分类结果不一致时,反复循环迭代的更新所述第一分类集之前卷积层的权值,至所述标记性别与所述性别分类结果一致时结束;
所述标记性别与所述性别分类结果一致时,固定所述第一分类集之前卷积层的权值。
5.根据权利要求4所述的人脸图像分类方法,其特征在于,所述当所述第一分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,训练所述第二分类集直至收敛的步骤,具体包括下述步骤:
将所述训练样本集输入到所述卷积神经网络模型中,获取所述第二分类集输出的激励分类结果;
通过止损函数比对所述期望分类信息与所述激励分类结果是否一致;
当所述期望分类信息与所述激励分类结果不一致时,反复循环迭代的更新位于所述第一分类集与第二分类集之间卷积层的权值,至所述期望分类信息与所述激励分类结果一致时结束;
所述标记性别与所述性别分类结果一致时,固定位于所述第一分类集与第二分类集之间卷积层的权值。
6.根据权利要求1所述的人脸图像分类方法,其特征在于,所述将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识的步骤之后,还包括下述步骤:
根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行颜值打分,以使决定所述卷积神经网络模型输出颜值分数的数据中包括区分不同性别的差异属性。
7.根据权利要求1~6任意一项所述的人脸图像分类方法,其特征在于,所述内容理解分类包括:图像相似度比对、种族分类识别或年龄识别。
8.一种人脸图像分类装置,其特征在于,所述人脸图像分类装置包括:
采集模块,用于获取待分类的人脸图像;
性别分类模块,用于将所述人脸图像输入到预设的卷积神经网络模型中,并根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识;
内容理解分类模块,用于根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行预设内容理解分类,以使决定所述卷积神经网络模型输出分类结果的数据中包括区分不同性别的差异属性;
所述卷积神经网络模型包括:第一分类集和第二分类集,所述第一分类集根据所述卷积神经网络模型的卷积层输出的中间数据,对所述人脸图像的性别信息进行辨识,所述第二分类集根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行内容理解分类。
9.根据权利要求8所述的人脸图像分类装置,其特征在于,所述第一分类集中至少包括两个全连接层和一个分类层,所述第一分类集以所述卷积层中倒数第二个卷积层输出的中间数据作为输入信号;所述第二分类集中包括至少两个全连接层与一个分类层,所述第二分类集以所述卷积层中倒数第一个卷积层输出的中间数据作为输入信号。
10.根据权利要求8所述的人脸图像分类装置,其特征在于,所述人脸图像分类装置还包括:
第一采集模块,用于获取标记有性别和期望分类信息的训练样本集;
第一训练子模块,用于将所述训练样本集输入到所述卷积神经网络模型中,训练所述第一分类集直至收敛;
第二训练子模块,用于当所述第一分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,训练所述第二分类集直至收敛;
第三训练子模块,用于当所述第二分类集收敛后,将所述训练样本集输入到所述卷积神经网络模型中,采用较小学习率对所述第一分类集和第二分类集进行微调,至所述卷积神经网络模型处于收敛状态时为止。
11.根据权利要求10所述的人脸图像分类装置,其特征在于,所述人脸图像分类装置还包括:
第一分类子模块,用于将所述训练样本集输入到所述卷积神经网络模型中,获取所述第一分类集输出的性别分类结果;
第一比对子模块,用于通过止损函数比对所述标记性别与所述性别分类结果是否一致;
第一处理子模块,用于当所述标记性别与所述性别分类结果不一致时,反复循环迭代的更新所述第一分类集之前卷积层的权值,至所述标记性别与所述性别分类结果一致时结束;
第一固定子模块,用于所述标记性别与所述性别分类结果一致时,固定所述第一分类集之前卷积层的权值。
12.根据权利要求10所述的人脸图像分类装置,其特征在于,所述人脸图像分类装置还包括:
第二分类子模块,用于将所述训练样本集输入到所述卷积神经网络模型中,获取所述第二分类集输出的激励分类结果;
第二比对子模块,用于通过止损函数比对所述期望分类信息与所述激励分类结果是否一致;
第二处理子模块,用于当所述期望分类信息与所述激励分类结果不一致时,反复循环迭代的更新位于所述第一分类集与第二分类集之间卷积层的权值,至所述期望分类信息与所述激励分类结果一致时结束;
第二固定子模块,用于所述标记性别与所述性别分类结果一致时,固定位于所述第一分类集与第二分类集之间卷积层的权值。
13.根据权利要求8所述的人脸图像分类装置,其特征在于,所述人脸图像分类装置还包括:
颜值分类子模块,用于根据所述卷积神经网络模型的卷积层输出的最终数据,在所述性别信息限定的范围内对所述人脸图像进行颜值打分,以使决定所述卷积神经网络模型输出颜值分数的数据中包括区分不同性别的差异属性。
14.根据权利要求8~13任意一项所述的人脸图像分类装置,其特征在于,所述内容理解分类包括:图像相似度比对、种族分类识别或年龄识别。
15.一种服务器,其特征在于,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行权利要求1-7任意一项所述的人脸图像分类方法。
CN201710983963.1A 2017-10-20 2017-10-20 人脸图像分类方法、装置及服务器 Active CN107742107B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710983963.1A CN107742107B (zh) 2017-10-20 2017-10-20 人脸图像分类方法、装置及服务器
US16/755,301 US11417148B2 (en) 2017-10-20 2018-10-11 Human face image classification method and apparatus, and server
PCT/CN2018/109794 WO2019076227A1 (zh) 2017-10-20 2018-10-11 人脸图像分类方法、装置及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710983963.1A CN107742107B (zh) 2017-10-20 2017-10-20 人脸图像分类方法、装置及服务器

Publications (2)

Publication Number Publication Date
CN107742107A CN107742107A (zh) 2018-02-27
CN107742107B true CN107742107B (zh) 2019-03-01

Family

ID=61237958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710983963.1A Active CN107742107B (zh) 2017-10-20 2017-10-20 人脸图像分类方法、装置及服务器

Country Status (3)

Country Link
US (1) US11417148B2 (zh)
CN (1) CN107742107B (zh)
WO (1) WO2019076227A1 (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107742107B (zh) * 2017-10-20 2019-03-01 北京达佳互联信息技术有限公司 人脸图像分类方法、装置及服务器
CN108573209A (zh) * 2018-02-28 2018-09-25 天眼智通(香港)有限公司 一种基于人脸的单模型多输出的年龄性别识别方法及系统
CN110298212B (zh) * 2018-03-21 2023-04-07 腾讯科技(深圳)有限公司 模型训练方法、情绪识别方法、表情显示方法及相关设备
CN108596171A (zh) * 2018-03-29 2018-09-28 青岛海尔智能技术研发有限公司 开门控制方法和系统
CN108537168B (zh) * 2018-04-09 2021-12-31 云南大学 基于迁移学习技术的面部表情识别方法
CN108776808A (zh) 2018-05-25 2018-11-09 北京百度网讯科技有限公司 一种用于检测钢包溶蚀缺陷的方法和装置
CN108446688B (zh) * 2018-05-28 2020-01-07 北京达佳互联信息技术有限公司 人脸图像性别判断方法、装置、计算机设备及存储介质
CN108734146A (zh) * 2018-05-28 2018-11-02 北京达佳互联信息技术有限公司 人脸图像年龄判断方法、装置、计算机设备及存储介质
CN108764334A (zh) * 2018-05-28 2018-11-06 北京达佳互联信息技术有限公司 人脸图像颜值判断方法、装置、计算机设备及存储介质
WO2020061008A1 (en) * 2018-09-18 2020-03-26 Google Llc Receptive-field-conforming convolution models for video coding
CN109299690B (zh) * 2018-09-21 2020-12-29 浙江中正智能科技有限公司 一种可提高视频实时人脸识别精度的方法
CN111598600A (zh) * 2019-02-21 2020-08-28 虹软科技股份有限公司 多媒体资讯推送方法及系统、终端设备
CN109934173B (zh) * 2019-03-14 2023-11-21 腾讯科技(深圳)有限公司 表情识别方法、装置及电子设备
CN112183166A (zh) * 2019-07-04 2021-01-05 北京地平线机器人技术研发有限公司 确定训练样本的方法、装置和电子设备
CN110851635A (zh) * 2019-09-30 2020-02-28 拉扎斯网络科技(上海)有限公司 图片推送方法、装置、服务器和非易失性存储介质
CN110866466B (zh) * 2019-10-30 2023-12-26 平安科技(深圳)有限公司 一种人脸识别方法、装置、存储介质和服务器
CN111159450A (zh) * 2019-12-30 2020-05-15 上海眼控科技股份有限公司 图片分类方法、装置、计算机设备和存储介质
CN112257645B (zh) * 2020-11-02 2023-09-01 浙江大华技术股份有限公司 人脸的关键点定位方法和装置、存储介质及电子装置
CN114944000B (zh) * 2022-06-07 2024-04-19 重庆第二师范学院 一种基于多尺度特征提取的人脸表情识别方法
CN115240249B (zh) * 2022-07-07 2023-06-06 湖北大学 人脸识别的特征提取分类度量学习方法、系统及存储介质
CN116563770B (zh) * 2023-07-10 2023-09-29 四川弘和数智集团有限公司 车辆颜色的检测方法、装置及设备和介质
CN116958752B (zh) * 2023-09-20 2023-12-15 国网湖北省电力有限公司经济技术研究院 一种基于ipkcnn-svm的电网基建建筑归档方法、装置及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824054A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联深度神经网络的人脸属性识别方法
CN106022317A (zh) * 2016-06-27 2016-10-12 北京小米移动软件有限公司 人脸识别方法及装置
CN106529402A (zh) * 2016-09-27 2017-03-22 中国科学院自动化研究所 基于多任务学习的卷积神经网络的人脸属性分析方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8520906B1 (en) * 2007-09-24 2013-08-27 Videomining Corporation Method and system for age estimation based on relative ages of pairwise facial images of people
CN104143079B (zh) 2013-05-10 2016-08-17 腾讯科技(深圳)有限公司 人脸属性识别的方法和系统
WO2015180101A1 (en) * 2014-05-29 2015-12-03 Beijing Kuangshi Technology Co., Ltd. Compact face representation
CN105678381B (zh) * 2016-01-08 2019-03-08 浙江宇视科技有限公司 一种性别分类网络训练方法、性别分类方法及相关装置
CN105718869B (zh) * 2016-01-15 2019-07-02 网易(杭州)网络有限公司 一种评估图片中人脸颜值的方法和装置
KR102308871B1 (ko) * 2016-11-02 2021-10-05 삼성전자주식회사 객체의 속성에 기반하여 객체를 인식 및 트레이닝하는 방법 및 장치
US10360494B2 (en) * 2016-11-30 2019-07-23 Altumview Systems Inc. Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules
CN107742107B (zh) * 2017-10-20 2019-03-01 北京达佳互联信息技术有限公司 人脸图像分类方法、装置及服务器
EP3853764A1 (en) * 2018-09-20 2021-07-28 NVIDIA Corporation Training neural networks for vehicle re-identification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824054A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联深度神经网络的人脸属性识别方法
CN106022317A (zh) * 2016-06-27 2016-10-12 北京小米移动软件有限公司 人脸识别方法及装置
CN106529402A (zh) * 2016-09-27 2017-03-22 中国科学院自动化研究所 基于多任务学习的卷积神经网络的人脸属性分析方法

Also Published As

Publication number Publication date
US11417148B2 (en) 2022-08-16
WO2019076227A1 (zh) 2019-04-25
US20210027048A1 (en) 2021-01-28
CN107742107A (zh) 2018-02-27

Similar Documents

Publication Publication Date Title
CN107742107B (zh) 人脸图像分类方法、装置及服务器
CN110032926B (zh) 一种基于深度学习的视频分类方法以及设备
Oneata et al. Action and event recognition with fisher vectors on a compact feature set
Gall et al. Hough forests for object detection, tracking, and action recognition
CN104063719B (zh) 基于深度卷积网络的行人检测方法及装置
Özyer et al. Human action recognition approaches with video datasets—A survey
US11600067B2 (en) Action recognition with high-order interaction through spatial-temporal object tracking
CN112784763B (zh) 基于局部与整体特征自适应融合的表情识别方法及系统
CN107944431B (zh) 一种基于运动变化的智能识别方法
CN109389055A (zh) 基于混合卷积和注意力机制的视频分类方法
CN107463920A (zh) 一种消除局部遮挡物影响的人脸识别方法
CN108717663A (zh) 基于微表情的面签欺诈判断方法、装置、设备及介质
CN113536922A (zh) 一种加权融合多种图像任务的视频行为识别方法
CN109543602A (zh) 一种基于多视角图像特征分解的行人再识别方法
CN111738355B (zh) 注意力融合互信息的图像分类方法、装置及存储介质
CN108108807A (zh) 学习型图像处理方法、系统及服务器
CN109214366A (zh) 局部目标重识别方法、装置及系统
CN109284675A (zh) 一种用户的识别方法、装置及设备
Chen et al. What's in a name? first names as facial attributes
CN107590460B (zh) 人脸分类方法、装置及智能终端
CN110503076A (zh) 基于人工智能的视频分类方法、装置、设备和介质
CN108205684A (zh) 图像消歧方法、装置、存储介质和电子设备
US20210081672A1 (en) Spatio-temporal interactions for video understanding
CN107785061A (zh) 孤独症谱系障碍儿童情绪能力干预系统
CN109145871A (zh) 心理行为识别方法、装置与存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant