CN111027490A - 人脸属性识别方法及装置、存储介质 - Google Patents
人脸属性识别方法及装置、存储介质 Download PDFInfo
- Publication number
- CN111027490A CN111027490A CN201911272659.1A CN201911272659A CN111027490A CN 111027490 A CN111027490 A CN 111027490A CN 201911272659 A CN201911272659 A CN 201911272659A CN 111027490 A CN111027490 A CN 111027490A
- Authority
- CN
- China
- Prior art keywords
- attribute
- model
- face
- identification model
- attribute identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请公开了一种人脸属性识别方法及装置、存储介质,属于计算机处理技术领域。该方法包括:根据第一初始识别模型和训练图像集,训练得到第一属性识别模型,根据第二初始识别模型和该训练图像集,训练得到第二属性识别模型,根据该第一属性识别模型训练该第二属性识别模型得到目标属性识别模型,将至少两种目标属性识别模型的输入单元合并为共享输入单元,使该共享输入单元与每个目标属性识别模型的识别单元连接,得到综合属性识别模型,将待识别人脸图像输入该综合属性识别模型,使该综合属性识别模型从该待识别人脸图像中识别出至少两种人脸属性。本申请有助于减小人脸属性识别过程的计算量,提高识别效率。
Description
技术领域
本申请涉及计算机处理技术领域,特别涉及一种人脸属性识别方法及装置、存储介质。
背景技术
人脸属性识别是指从人脸图像中识别出人脸属性的过程,人脸属性可以包括人脸性别、人脸年龄、人脸表情、嘴巴大小、鼻梁高低或眼睛大小等。随着计算机处理技术的发展,人脸属性识别的应用越来越广泛,例如,在监控门禁中通常需要识别人脸性别。
目前的人脸属性识别方法通常包括:终端(例如手机等)采集到待识别人脸图像后,将待识别人脸图像发送给服务器,服务器将该待识别人脸图像输入至人脸属性识别模型,由人脸属性识别模型对该待识别人脸图像进行计算,以从该待识别人脸图像中识别出人脸属性,之后服务器将识别出的人脸属性发送给终端。其中,该人脸属性识别模型可以是服务器基于残差网络-50(英文:Residual Network-50,简称:ResNet-50)训练得到的。
但是,目前的人脸属性识别模型为基于ResNet-50训练得到的,该人脸属性识别模型的模型总层数较多,使得该人脸属性识别模型较大,服务器通过该人脸属性识别模型识别人脸属性的计算量较大,识别效率较低。
发明内容
本申请实施例提供了一种人脸属性识别方法及装置、存储介质,有助于减小识别人脸属性的计算量,提高识别效率。所述技术方案如下:
一方面,提供了一种人脸属性识别方法,所述方法包括:
根据第一初始识别模型和训练图像集,训练得到第一属性识别模型;
根据第二初始识别模型和所述训练图像集,训练得到第二属性识别模型,所述第二属性识别模型的模型总层数小于所述第一属性识别模型的模型总层数;
根据所述第一属性识别模型训练所述第二属性识别模型,得到目标属性识别模型,所述目标属性识别模型包括输入单元和识别单元;
将至少两种所述目标属性识别模型的所述输入单元合并为共享输入单元,使所述共享输入单元与每个所述目标属性识别模型的所述识别单元连接,得到综合属性识别模型,每种所述目标属性识别模型用于从输入所述目标属性识别模型的人脸图像中识别出一种人脸属性;
将待识别人脸图像输入所述综合属性识别模型,使所述综合属性识别模型从所述待识别人脸图像中识别出至少两种人脸属性。
另一方面,提供了一种人脸属性识别装置,所述装置包括:
第一训练模块,用于根据第一初始识别模型和训练图像集,训练得到第一属性识别模型;
第二训练模块,用于根据第二初始识别模型和所述训练图像集,训练得到第二属性识别模型,所述第二属性识别模型的模型总层数小于所述第一属性识别模型的模型总层数;
第三训练模块,用于根据所述第一属性识别模型训练所述第二属性识别模型,得到目标属性识别模型,所述目标属性识别模型包括输入单元和识别单元;
综合训练模块,用于将至少两种所述目标属性识别模型的所述输入单元合并为共享输入单元,使所述共享输入单元与每个所述目标属性识别模型的所述识别单元连接,得到综合属性识别模型,每种所述目标属性识别模型用于从输入所述目标属性识别模型的人脸图像中识别出一种人脸属性;
属性识别模块,用于将待识别人脸图像输入所述综合属性识别模型,使所述综合属性识别模型从所述待识别人脸图像中识别出至少两种人脸属性。
再一方面,提供了一种人脸属性识别装置,所述装置包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述一方面所述的方法。
又一方面,提供了一种存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述一方面所述的方法。
本申请实施例提供的技术方案带来的有益效果包括:
本申请实施例提供的人脸属性识别方法及装置、存储介质,由于第二属性识别模型的模型总层数小于第一属性识别模型的模型总层数,因此根据该第一属性识别模型训练第二属性识别模型得到的目标属性识别模型的模型总层数小于第一属性识别模型的模型总层数,该目标属性识别模型的模型总层数较少,而综合属性识别模型由至少两种目标属性识别模型组合得到,该至少两种目标属性识别模型的输入单元共享,因此该综合属性识别模型的模型总层数较少,该综合属性识别模型较小,通过该综合属性识别模型识别人脸属性的计算量较小,识别效率较高。并且,由于目标属性识别模型是根据第一属性识别模型训练第二属性识别模型得到的,该第一属性识别模型识别人脸属性的准确性较高,因此可以保证目标属性识别模型的识别准确性,从而保证综合属性识别模型的识别准确性。
附图说明
图1是本申请实施例提供的一种人脸属性识别方法的方法流程图;
图2是本申请实施例提供的另一种人脸属性识别方法的方法流程图;
图3是本申请实施例提供的一种根据第一属性识别模型训练第二属性识别模型的方法流程图;
图4是本申请实施例提供的一种优化第二属性识别模型的方法流程图;
图5是本申请实施例提供的一种通过综合属性识别模型识别出两种人脸属性的示意图;
图6是本申请实施例提供的一种综合属性识别模型训练过程的示意图;
图7是本申请实施例提供的一种人脸属性识别装置的框图;
图8是本申请实施例提供的一种第三训练模块的框图;
图9是本申请实施例提供的另一种人脸属性识别装置的框图;
图10是本申请实施例提供的一种人脸属性识别装置的结构示意图。
具体实施方式
为使本申请的原理、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
目前,人脸属性识别模型是根据ResNet-50训练得到的,该人脸属性识别模型较大,通常部署在服务器中。终端采集到待识别人脸图像后,将待识别人脸图像发送给服务器,由服务器根据人脸属性识别模型从该待识别人脸图像中识别出人脸属性。但是,目前的人脸属性识别模型的模型总层数较多,通过该人脸属性识别模型识别人脸属性的计算量较大,识别效率较低。
容易理解,减小人脸属性识别模型的模型总层数可以减小识别人脸属性的计算量,提高识别效率,但是目前减小模型总层数的方案普遍存在识别准确性较低的问题。并且,目前一种人脸属性识别模型通常只能识别一种人脸属性,识别多种人脸属性需要多种人脸属性识别模型,而多种人脸属性识别模型占用的空间较大,识别过程复杂。
本申请实施例提供了一种人脸属性识别方法及装置、存储介质,在该方法中,首先训练第一属性识别模型和第二属性识别模型,该第二属性识别模型的模型总层数小于该第一属性识别模型的模型总层数,之后根据该第一属性识别模型训练该第二属性识别模型得到目标属性识别模型,将至少两种该目标属性识别模型的输入单元合并为共享输入单元,使该共享输入单元与每个目标属性识别模型的识别单元连接得到综合属性识别模型。由于第二属性识别模型的模型总层数小于第一属性识别模型的模型总层数,因此根据该第一属性识别模型训练第二属性识别模型得到的目标属性识别模型的模型总层数小于第一属性识别模型的模型总层数,该目标属性识别模型的模型总层数较少,而综合属性识别模型由至少两种目标属性识别模型组合得到,该至少两种目标属性识别模型的输入单元共享,因此该综合属性识别模型的模型总层数较少,该综合属性识别模型较小,通过该综合属性识别模型识别人脸属性的计算量较小,识别效率较高。并且,由于目标属性识别模型是根据第一属性识别模型训练第二属性识别模型得到的,该第一属性识别模型的识别准确性较高,因此可以保证目标属性识别模型的识别准确性,从而保证综合属性识别模型的识别准确性。该综合属性识别模型较小,可以部署在终端中,终端可以直接利用该综合属性识别模型识别至少两种人脸属性,而非需要将待识别人脸图像发送给服务器,有助于提高人脸属性的识别效率。本申请的详细方案请参考下述实施例。
本申请实施例提供的人脸属性识别方法可以由终端执行,例如可以由终端中的人脸属性识别应用程序(英文:Application;简称:APP)执行。该终端可以是监控设备、门禁设备、智能手机、平板电脑、智能电视、动态影像专家压缩标准音频层面5(英文:MovingPicture Experts Group Audio Layer V;简称:MP5)播放器、膝上型便携计算机或台式计算机等等。其中,终端中可以部署有综合属性识别模型,终端可以将获取到的待识别人脸图像输入该综合属性识别模型,由该综合属性识别模型对该待识别人脸图像进行计算,以从该待识别人脸图像中识别出至少两种人脸属性。
图1是本申请实施例提供的一种人脸属性识别方法的方法流程图,如图1所示,该方法可以包括以下步骤:
步骤101、根据第一初始识别模型和训练图像集,训练得到第一属性识别模型。
步骤102、根据第二初始识别模型和该训练图像集,训练得到第二属性识别模型,该第二属性识别模型的模型总层数小于该第一属性识别模型的模型总层数。
步骤103、根据该第一属性识别模型训练该第二属性识别模型,得到目标属性识别模型,该目标属性识别模型包括输入单元和识别单元。
步骤104、将至少两种目标属性识别模型的输入单元合并为共享输入单元,使该共享输入单元与每个目标属性识别模型的识别单元连接,得到综合属性识别模型,每种目标属性识别模型用于从输入该目标属性识别模型的人脸图像中识别出一种人脸属性。
步骤105、将待识别人脸图像输入该综合属性识别模型,使该综合属性识别模型从该待识别人脸图像中识别出至少两种人脸属性。
综上所述,本申请实施例提供的人脸属性识别方法,由于第二属性识别模型的模型总层数小于第一属性识别模型的模型总层数,因此根据该第一属性识别模型训练第二属性识别模型得到的目标属性识别模型的模型总层数小于第一属性识别模型的模型总层数,该目标属性识别模型的模型总层数较少,而综合属性识别模型由至少两种目标属性识别模型组合得到,该至少两种目标属性识别模型的输入单元共享,因此该综合属性识别模型的模型总层数较少,该综合属性识别模型较小,通过该综合属性识别模型识别人脸属性的计算量较小,识别效率较高。并且,由于目标属性识别模型是根据第一属性识别模型训练第二属性识别模型得到的,该第一属性识别模型的识别准确性较高,因此可以保证目标属性识别模型的识别准确性,从而保证综合属性识别模型的识别准确性。
图2是本申请实施例提供的另一种人脸属性识别方法的方法流程图,如图2所示,该方法可以包括以下步骤:
子步骤201、获取训练图像集。
终端可以获取训练图像集,该训练图像集是指由用于训练目标属性识别模型的训练图像构成的集合,在本申请实施例中,目标属性识别模型用于从输入该目标属性识别模型的人脸图像中识别出一种人脸属性。其中,该人脸属性可以包括人脸年龄、人脸性别、人脸表情、嘴巴大小、鼻梁高低或眼睛大小中的任意一种,本申请实施例对此不做限定。
在本申请实施例中,该训练图像集中的每张训练图像中可以包括人脸图像,且该训练图像集中的每张训练图像具有人脸属性标注值,该人脸属性标注值可以是人工手动标注在该训练图像中的。可选地,每种人脸属性可以对应至少一个人脸属性标注值,示例地,人脸性别可以对应性别标注值0和1,0表示人脸性别为男,1表示人脸性别为女;再示例地,人脸年龄可以对应年龄标注值000~100(包括000、001、002、003...099、100),000表示人脸年龄为0岁,001表示人脸年龄为1岁,002表示人脸年龄为2岁,099表示人脸年龄为99岁。
可选地,终端中可以具有摄像头,终端可以通过该摄像头采集多张训练图像,并获取人工为该多张训练图像标注的人脸属性标注值,从而得到训练图像集,或者,终端可以存储有训练图像集,终端可以从终端本地获取该训练图像集;又或者,终端可以从服务器或其他终端获取该训练图像集,本申请实施例对此不做限定。
步骤202、根据第一初始识别模型和该训练图像集,训练得到第一属性识别模型。
终端可以获取第一初始识别模型,根据该第一初始识别模型和该训练图像集训练得到第一属性识别模型。其中,第一初始识别模型可以为深度学习网络模型,例如ResNet-50模型。
可选地,终端可以将该训练图像集中的每张训练图像输入该第一初始识别模型,通过该第一初始识别模型对该训练图像进行识别,获取该第一初始识别模型输出的该训练图像的人脸属性预测值。接着,终端确定每张训练图像的人脸属性标注值和人脸属性预测值的差异值,根据每张训练图像的人脸属性标注值和人脸属性预测值的差异值,对该第一初始识别模型的模型参数进行调整,以降低该第一初始识别模型输出的人脸属性预测值与人脸属性标注值的差异值。之后,终端对调整模型参数之后的第一初始识别模型重复上述训练过程,直至第一初始识别模型输出的人脸属性预测值与人脸属性标注值的差异值小于预设差值,将该人脸属性预测值与该人脸属性标注值的差异值小于预设差值对应的第一初始识别模型确定为第一属性识别模型。其中,该预设差值可以为终端预先设置好的差值。
示例地,以第一属性识别模型为性别属性识别模型(也即是用于从人脸图像中识别出人脸性别的模型)为例,终端可以将该训练图像集中的每张训练图像输入该第一初始识别模型,通过该第一初始识别模型对该训练图像进行识别,获取该第一初始识别模型输出的该训练图像的人脸性别预测值。接着,终端确定每张训练图像的人脸性别标注值和人脸性别预测值的差异值,根据每张训练图像的人脸性别标注值和人脸性别预测值的差异值,对该第一初始识别模型的模型参数进行调整,以降低该第一初始识别模型输出的人脸性别预测值与人脸性别标注值的差异值。之后,终端对调整模型参数之后的第一初始识别模型重复上述训练过程,直至第一初始识别模型输出的人脸性别预测值与人脸性别标注值的差异值小于预设差值,将人脸性别预测值与人脸性别标注值的差异值小于预设差值对应的第一初始识别模型确定为第一属性识别模型。
再示例地,以第一属性识别模型为年龄属性识别模型(也即是用于从人脸图像中识别出人脸年龄的模型)为例,终端可以将该训练图像集中的每张训练图像输入该第一初始识别模型,通过该第一初始识别模型对该训练图像进行识别,获取该第一初始识别模型输出的该训练图像的人脸年龄预测值。接着,终端确定每张训练图像的人脸年龄标注值和人脸年龄预测值的差异值,根据每张训练图像的人脸年龄标注值和人脸年龄预测值的差异值,对该第一初始识别模型的模型参数进行调整,以降低该第一初始识别模型输出的人脸年龄预测值与人脸年龄标注值的差异值。之后,终端对调整模型参数之后的第一初始识别模型重复上述训练过程,直至第一初始识别模型输出的人脸年龄预测值与人脸年龄标注值的差异值小于预设差值,将人脸年龄预测值与人脸年龄标注值的差异值小于预设差值对应的第一初始识别模型确定为第一属性识别模型。
步骤203、根据第二初始识别模型和该训练图像集,训练得到第二属性识别模型。
终端可以获取第二初始识别模型,根据该第二初始识别模型和该训练图像集训练得到第二属性识别模型。其中,第二初始识别模型可以为深度学习网络模型,该第二初始识别模型的模型总层数小于第一初始识别模型的模型总层数,相应的,该第二属性识别模型的模型总层数小于第一属性识别模型的模型总层数,例如该第二初始识别模型可以为ResNet-34模型或ResNet-18模型,可选地,本申请实施例以第二初始识别模型为ResNet-18模型为例说明。
在本申请实施例中,终端根据第二初始识别模型和训练图像集训练得到第二属性识别模型的过程,与步骤202中终端根据第一初始识别模型和训练图像集训练得到第一属性识别模型的过程类似,本申请实施例在此不再赘述。但是需要说明的是,该步骤203中的第二属性识别模型与步骤202中的第一属性识别模型是用于识别同一种人脸属性的不同模型,例如,若步骤202中的第一属性识别模型为性别属性识别模型,则该步骤203中的第二属性识别模型为性别属性识别模型,若步骤202中的第一属性识别模型为年龄属性识别模型,则该步骤203中的第二属性识别模型为年龄属性识别模型。
步骤204、根据该第一属性识别模型训练该第二属性识别模型,得到目标属性识别模型,该目标属性识别模型包括输入单元和识别单元。
如前所述,在本申请实施例中,第一属性识别模型的模型总层数较多,第二属性识别模型的模型总层数较少,容易理解,通过该第一属性识别模型识别人脸属性的准确性较高,通过该第二属性识别模型识别人脸属性的准确性较低,因此终端可以将该第一属性识别模型作为教师模型,将该第二属性识别模型作为学习模型,根据该第一属性识别模型训练该第二属性识别模型得到目标属性识别模型,这样可以使得目标属性识别模型具有较少的模型总层数,且能够保证目标属性识别模型识别人脸属性的准确性。
可选地,图3是本申请实施例提供的一种根据第一属性识别模型训练第二属性识别模型的方法流程图,如图3所示,该方法可以包括以下子步骤:
子步骤A、将同一样本图像分别输入第一属性识别模型和第二属性识别模型,得到该第一属性识别模型输出的该样本图像的第一人脸属性以及该第二属性识别模型输出的该样本图像的第二人脸属性。
终端可以获取一包括人脸图像的样本图像,然后将该样本图像分别输入第一属性识别模型和第二属性识别模型,第一属性识别模型对该样本图像进行计算后,输出该样本图像的第一人脸属性,第二属性识别模型对该样本图像进行计算后,输出该样本图像的第二人脸属性,终端可以获取第一属性识别模型输出的该样本图像的第一人脸属性以及该第二属性识别模型输出的该样本图像的第二人脸属性。在本申请实施例中,该第一人脸属性与第二人脸属性为同一人脸属性,例如该第一人脸属性和该第二人脸属性均为人脸性别,或者,该第一人脸属性和该第二人脸属性均为人脸年龄。
可选地,终端可以从步骤201中获取的训练图像集中获取该样本图像;或者,终端可以通过摄像头采集样本图像,或者,终端可以存储有样本图像,终端可以从本地获取该样本图像;又或者,终端可以从服务器或其他终端获取该样本图像,本申请实施例对此不做限定。
子步骤B、根据该样本图像的第一人脸属性和该样本图像的第二人脸属性,获取该第二属性识别模型的差异损失。
终端在得到样本图像的第一人脸属性和第二人脸属性之后,可以根据该样本图像的第一人脸属性和该样本图像的第二人脸属性,获取第二属性识别模型的差异损失,该差异损失可以用于衡量该第二属性识别模型相对于第一属性识别模型的识别差异。可选地,该差异损失可以是该样本图像的第一人脸属性和该样本图像的第二人脸属性的欧式距离。
可选地,终端可以根据该样本图像的第一人脸属性和该样本图像的第二人脸属性,通过欧式损失函数(英文:Euclidean Loss)计算该第一人脸属性与该第二人脸属性的欧式距离(英文:Euclidean Distance),并将该第一人脸属性与该第二人脸属性的欧式距离确定为该第二属性识别模型的差异损失。
示例地,该样本图像的第一人脸属性可以为T_prob,该样本图像的第二人脸属性可以为S_prob,则终端可以确定该第一人脸属性与该第二人脸属性的欧式距离为loss_d=||T_prob-S_prob||,其中,loss_d表示欧式距离,符号“||||”为欧式距离计算符号。
子步骤C、获取该第二属性识别模型的分类损失。
可选地,样本图像中可以包括人脸属性标注值,第二属性识别模型输出的第二人脸属性可以是该第二属性识别模型对该样本图像进行识别得到的人脸属性预测值,终端可以根据该样本图像的人脸属性标注值和该样本图像的人脸属性预测值,确定该第二属性识别模型的分类损失,该分类损失用于衡量第二属性识别模型的识别误差。
可选地,当第二属性识别模型为性别属性识别模型时,终端可以根据该样本图像的人脸性别标注值和该样本图像的人脸性别预测值,通过归一化指数(英文:Softmax)函数计算得到该第二属性识别模型的分类损失,该分类损失可以是性别分类损失;当第二属性识别模型为年龄属性识别模型时,终端可以根据该样本图像的人脸年龄标注值和该样本图像的人脸年龄预测值,通过回归(英文:Regression)函数计算得到该第二属性识别模型的分类损失,该分类损失可以是年龄分类损失。示例地,第二属性识别模型的分类损失可以是loss_c。
可选地,人脸性别分为男、女两类,终端通过Softmax函数计算该第二属性识别模型的分类损失可以包括:终端通过Softmax函数对人脸性别预测值进行归一化处理,得到归一化的人脸性别预测值,计算该归一化的人脸性别预测值与人脸性别标注值的交叉熵,将该交叉熵确定为该第二属性识别模型的分类损失,该分类损失也即是性别分类损失。
可选地,人脸年龄为一系列连续的值,终端通过回归(英文:Regression)函数计算该第二属性识别模型的分类损失可以包括:终端通过Regression函数计算人脸年龄预测值和人脸年龄标注值的差值,将该差值的平方确定为该第二属性识别模型的分类损失,该分类损失也即是年龄分类损失。
子步骤D、根据该第二属性识别模型的差异损失和该第二属性识别模型的分类损失,优化该第二属性识别模型,得到目标属性识别模型。
终端在得到第二属性识别模型的差异损失和第二属性识别模型的分类损失之后,可以根据该第二属性识别模型的差异损失和该第二属性识别模型的分类损失,优化该第二属性识别模型,从而得到目标属性识别模型。
可选地,图4是本申请实施例提供的一种优化第二属性识别模型的方法流程图,如图4所示,该方法可以包括以下子步骤:
子步骤D1、根据第二属性识别模型的差异损失和该第二属性识别模型的分类损失,确定该第二属性识别模型的综合损失。
可选地,终端可以将第二属性识别模型的差异损失和第二属性识别模型的分类损失相加得到该第二属性识别模型的综合损失。
示例地,该第二属性识别模型的综合损失可以是:Loss=loss_d+loss_c。其中,loss_d=||T_prob–S_prob||,表示第二属性识别模型的差异损失,loss_c表示该第二属性识别模型的分类损失。
子步骤D2、根据该第二属性识别模型的综合损失,调整该第二属性识别模型的模型参数,直至该第二属性识别模型的综合损失满足目标条件。
可选地,终端在确定第二属性识别模型的综合损失后,可以检测该第二属性识别模型的综合损失是否满足目标条件,如果该第二属性识别模型的综合损失满足目标条件,则终端执行后续子步骤D3,而无需执行该子步骤D2,如果该第二属性识别模型的综合损失不满足目标条件,则终端可以根据该第二属性识别模型的综合损失,调整该第二属性识别模型的模型参数,在调整模型参数之后,再次执行上子步骤A至子步骤D2,得到调整模型参数后该第二属性识别模型的综合损失,并再次检测该第二属性识别模型的综合损失是否满足目标条件,重复执行上述过程,直至该第二属性识别模型的综合损失满足目标条件。
可选地,该目标条件可以是第二属性识别模型的综合损失小于预设损失,或者,第二属性识别模型的综合损失为0(也即是第二属性识别模型不存在损失),该预设损失可以根据属性识别模型的识别要求确定。示例地,第二属性识别模型的综合损失可以为:Loss=loss_d+loss_c,也即是该第二属性识别模型的综合损失为损失值,相应的,该目标条件可以是第二属性识别模型的综合值小于预设阈值,本申请实施例对此不做限定。
子步骤D3、将综合损失满足该目标条件的第二属性识别模型,确定为目标属性识别模型,该目标属性识别模型包括输入单元和识别单元。
可选地,终端可以将综合损失小于预设损失时的第二属性识别模型确定为目标属性识别模型,该目标属性识别模型可以包括输入单元和识别单元,输入单元用于向识别单元输入人脸图像,识别单元用于从输入单元输入的人脸图像中识别人脸属性。
示例地,该目标属性识别模型可以为性别属性识别模型,该性别属性识别模型包括输入单元和人脸性别识别单元,输入单元用于向人脸性别识别单元输入人脸图像,人脸性别识别单元用于从输入单元输入的人脸图像中识别人脸性别。再示例地,该目标属性识别模型可以为年龄属性识别模型,该年龄属性识别模型包括输入单元和人脸年龄识别单元,输入单元用于向人脸年龄识别单元输入人脸图像,人脸年龄识别单元用于从输入单元输入的人脸图像中识别人脸年龄。
需要说明的是,在本申请实施例中,输入单元可以包括卷积层、批量归一化层、激活函数层以及池化层等,识别单元可以包括卷积层、批量归一化层、激活函数层以及全连接层。其中,卷积层和全连接层可以为参数层,批量归一化层和激活函数层可以为非参数层。该参数层可以是指具有未知参数的层,该未知参数可以通过模型训练得到。该非参数层可以是指不具有未知参数的层。目标属性识别模型的模型总层数可以是该目标属性识别模型中的参数层的层数和非参数层的层数之和。在本申请实施例中,该目标属性识别模型的模型总层数可以小于50,例如,该目标属性识别模型的模型总层数可以为34或18,该目标属性识别模型的模型总层数较少,该目标属性识别模型较小。
步骤205、将至少两种该目标属性识别模型的输入单元合并为共享输入单元,使该共享输入单元与每个目标属性识别模型的识别单元连接,得到综合属性识别模型。
终端可以将该至少两种目标属性识别模型的输入单元合并为共享输入单元,使该共享输入单元与每个目标属性识别模型的识别单元连接,从而得到综合属性识别模型。其中,该至少两种目标属性识别模型中的每种目标属性识别模型用于从输入该目标属性识别模型的人脸图像中识别出一种人脸属性。
示例地,以该至少两种目标属性识别模型包括年龄属性识别模型和性别属性识别模型为例,该年龄属性识别模型可以包括输入单元和人脸年龄识别单元,该性别属性识别模型可以包括输入单元和人脸性别识别单元。终端可以将该年龄属性识别模型和性别属性识别模型的输入单元合并为共享输入单元,使该共享输入单元分别与该人脸年龄识别单元和该人脸性别识别单元连接。
可选地,在本申请实施例中,该综合属性识别模型的模型总层数可以小于50,该综合属性识别模型的模型总层数可以等于目标属性识别模型的模型总层数。例如该综合属性识别模型的模型总层数可以为34或18,可选地,该综合属性识别模型的层数为18。该综合属性识别模型的模型损失可以是组成该综合属性识别模型的该至少两种目标属性识别模型的模型损失的综合,例如,该综合属性识别模型由性别属性识别模型和年龄属性识别模型组合得到,则该综合属性识别模型的模型损失可以是性别属性识别模型的模型损失与年龄属性识别模型的模型损失的综合。
需要说明的是,在本申请实施例中,目标属性识别模型的参数精度可以为第一精度,该综合属性识别模型的参数精度可以为第二精度,该第二精度可以小于该第一精度,终端在将该至少两种目标属性识别模型组合得到综合属性识别模型之前,可以将该至少两种目标属性识别模型中,每种该目标属性识别模型的参数精度调整至第二精度,这样一来,可以减小每种目标属性识别模型的模型大小。并且在本领域中,第二精度足以满足属性识别模型的识别精度,因此将每种该目标属性识别模型的参数精度调整至第二精度后,再将该至少两种目标属性识别模型组合得到综合属性识别模型,并不会影响该综合属性识别模型的识别精度。示例地,该第一精度可以为浮点数(英文:Floating Point)精度36,该第二精度可以为浮点数(英文:Floating Point)精度18。
还需要说明的是,在本申请实施例中,该综合属性识别模型的模型总层数可以是该综合属性识别模型中的参数层的层数和非参数层的层数之和。如前所述,该综合属性识别模型的模型总层数可以小于50,因此该综合属性识别模型的模型总层数较少,该综合属性识别模型较小,使用该综合属性识别模型进行人脸属性识别的计算量较小,识别过程较为简单,使用该综合属性识别模型进行人脸属性识别,有助于提高该综合属性识别模型识别人脸属性的效率。
步骤206、获取待识别人脸图像。
可选地,终端可以直接获取待识别人脸图像;或者,终端可以获取包括人脸图像的待识别图像,然后对该待识别图像进行人脸检测以确定出该待识别图像中的人脸区域,对该待识别图像中的人脸区域进行裁剪,将裁剪得到的图像确定为待识别人脸图像。在本申请实施例中,该待识别人脸图像可以是视频图像,或者是静态图像,本申请实施例对此不做限定。
步骤207、将该待识别人脸图像输入该综合属性识别模型,使该综合属性识别模型从该待识别人脸图像中识别出至少两种人脸属性。
终端可以将该待识别人脸图像输入综合属性识别模型,由该综合属性识别模型对该待识别人脸图像进行计算,以从该待识别人脸图像识别出至少两种人脸属性。
如前所述,该综合属性识别模型包括共享输入单元和至少两个识别单元,终端可以将该待识别人脸图像输入该综合属性识别模型的该共享输入单元,该共享输入单元可以从该待识别人脸图像中提取人脸特征数据,并将提取到的人脸特征数据分别输入至该综合属性识别模型中与该共享输入单元连接的至少两个识别单元,每个识别单元根据输入至该识别单元的人脸特征数据进行人脸属性识别,并输出识别得到的人脸属性,从而该综合属性识别模型可以输出至少两种人脸属性。
示例地,该综合属性识别模型可以包括共享输入单元以及与该共享输入单元连接的人脸年龄识别单元和人脸性别识别单元,终端可以将该待识别人脸图像输入该综合属性识别模型的该共享输入单元,该共享输入单元可以从该待识别人脸图像中提取人脸特征数据,并将提取到的人脸特征数据分别输入至该人脸年龄识别单元和人脸性别识别单元,该人脸年龄识别单元根据输入至该人脸年龄识别单元的人脸特征数据进行人脸年龄识别,并输出识别到的人脸年龄,该人脸性别识别单元根据输入至该人脸性别识别单元的人脸特征数据进行人脸性别识别,并输出识别到的人脸性别,从而该综合属性识别模型可以输出人脸年龄和人脸性别。
需要说明的是,本申请实施例以终端训练综合属性识别模型后,将待识别人脸图像输入该综合属性识别模型进行人脸属性识别为例说明的,实际应用中,该综合属性识别模型可以是其他设备(例如服务器或其他终端)训练好的,终端可以从该其他设备获取该综合属性识别模型,并将待识别人脸图像输入该综合属性识别模型进行人脸属性识别,本申请实施例对此不做限定。
步骤208、获取该综合属性识别模型从该待识别人脸图像中识别出的至少两种人脸属性。
终端将该待识别人脸图像输入综合属性识别模型之后,可以获取该综合属性识别模型识别出的至少两种人脸属性。示例地,该综合属性识别模型识别出的至少两种人脸属性可以包括人脸年龄和人脸性别,则终端获取该综合属性识别模型识别出的人脸年龄和人脸性别。
在本申请实施例中,综合属性识别模型可以直接输出识别出的至少两种人脸属性,也可以输入该至少两种人脸属性的预测值,当综合属性识别模型输出至少两种人脸属性的预测值时,终端可以根据综合属性识别模型输出的人脸属性的预测值,确定该综合属性识别模型识别出的人脸属性。
可选地,终端获取综合属性识别模型从该待识别人脸图像中识别出的至少两种人脸属性后,还可以呈现该至少两种人脸属性。例如终端显示该至少两种人脸属性,或者,终端可以播报该至少两种人脸属性,本申请实施例对此不做限定。
示例地,图5是本申请实施例提供的一种通过综合属性识别模型识别出两种人脸属性的示意图,该图5以该两种人脸属性包括人脸性别和人脸年龄为例说明,如图5所示,将待识别人脸图像50输入综合属性识别模型后,该综合属性识别模型对该待识别人脸图像50进行计算后,从该待识别人脸图像50中识别出人脸年龄和人脸性别,并输出该人脸年龄和人脸性别,该人脸年龄可以为23岁,人脸性别可以为女。
需要说明的是,在本申请实施例中,综合属性识别模型可以包括多个模型层,每个模型层可以包括多个特征通道(英文:channel),每个模型层的特征通道用于根据该模型层的模型参数,对输入的特征数据进行计算,并前向输出计算结果(也即是每个模型层向综合属性识别模型中位于该模型层之后的模型层输入计算结果),直至向该综合属性识别模型的最后一个模型层,输出最终的识别结果(也即是人脸属性),本申请实施例在训练综合属性识别模型时,可以将初始识别模型(例如第一初始识别模型和第二初始识别模型)中的冗余通道去除(也即是不向冗余通道输入训练数据),使得最终训练得到的该综合属性识别模型不包括冗余通道,减少该综合属性识别模型的特征通道的数量,从而减小使用该综合属性识别模型进行人脸属性识别的计算量,简化识别过程,提高识别效率。其中,该冗余通道是指初始识别模型中对识别效果影响较小甚至无影响的特征通道。
还需要说明的是,目前在进行人脸属性识别时,采用的待识别图像的大小通常为224(也即是图像包括224*224个像素),这样的图像在进行人脸属性识别时,识别模型的计算量较大;在本申请实施例中,待识别人脸图像可以是数据量较小的待识别人脸图像,例如,该待识别人脸图像的大小可以为112(也即是该待识别人脸图像包括112*112个像素),这样一来,可以减小在人脸属性识别的过程中,综合属性识别模型的计算量。
还需要说明的是,本申请实施例提供的上述人脸属性识别方法中,步骤201至步骤205可以实现减少综合属性识别模型的模型总层数、减少综合属性识别模型的特征通道、蒸馏(英文:Distilling)形成目标属性识别模型、减小参数精度以及多任务训练(也即是将至少两个目标属性识别模型组合得到综合属性识别模型的过程),示例地,图6是本申请实施例提供的一种综合属性识别模型训练过程中的示意图,如图6所示,减少综合属性识别模型的模型总层数的过程以及减少综合属性识别模型的特征通道的过程可以通过步骤203实现,蒸馏形成目标属性识别模型的过程可以通过步骤201至步骤204实现,减小参数精度可以通过步骤204实现,多任务训练可以通过步骤205实现。
本申请实施例提供的人脸属性识别方法步骤的先后顺序可以适当调整,步骤也可以根据情况相应增减,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化的方法,都应涵盖在本申请的保护范围之内,因此不再赘述。
综上所述,本申请实施例提供的人脸属性识别方法,由于第二属性识别模型的模型总层数小于第一属性识别模型的模型总层数,因此根据该第一属性识别模型训练第二属性识别模型得到的目标属性识别模型的模型总层数小于第一属性识别模型的模型总层数,该目标属性识别模型的模型总层数较少,而综合属性识别模型由至少两种目标属性识别模型组合得到,该至少两种目标属性识别模型的输入单元共享,因此该综合属性识别模型的模型总层数较少,该综合属性识别模型较小,通过该综合属性识别模型识别人脸属性的计算量较小,识别效率较高。并且,由于目标属性识别模型是根据第一属性识别模型训练第二属性识别模型得到的,该第一属性识别模型的识别准确性较高,因此可以保证目标属性识别模型的识别准确性,从而保证综合属性识别模型的识别准确性。该综合属性识别模型较小,可以部署在终端中,终端可以直接利用该综合属性识别模型识别至少两种人脸属性,而需要将待识别人脸图像发送给服务器,有助于提高人脸属性的识别效率。
目前的人脸属性识别模型较大,通常为几百兆大小,因此该人脸属性识别模型通常部署在服务器中,而无法部署在终端中,这样一来就难以实现由终端进行人脸属性识别;相比于目前的人脸属性识别模型,本申请本实施例中的综合属性识别模型可以将几百兆大小的人脸属性识别模型减少至10兆左右,以便于该综合属性识别模型可以部署在终端中,终端可以直接利用该综合属性识别模型识别至少两种人脸属性,有助于提高人脸属性识别的识别效率。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图7是本申请实施例提供的一种人脸属性识别装置300的框图,该人脸属性识别装置300可以是终端中的程序组件,如图7所示,该人脸属性识别装置300可以包括:
第一训练模块301,用于根据第一初始识别模型和训练图像集,训练得到第一属性识别模型;
第二训练模块302,用于根据第二初始识别模型和该训练图像集,训练得到第二属性识别模型,该第二属性识别模型的模型总层数小于该第一属性识别模型的模型总层数;
第三训练模块303,用于根据该第一属性识别模型训练该第二属性识别模型,得到目标属性识别模型,该目标属性识别模型包括输入单元和识别单元;
综合训练模块304,用于将至少两种该目标属性识别模型的输入单元合并为共享输入单元,使该共享输入单元与每个该目标属性识别模型的识别单元连接,得到综合属性识别模型,每种该目标属性识别模型用于从输入该目标属性识别模型的人脸图像中识别出一种人脸属性;
属性识别模块305,用于将待识别人脸图像输入该综合属性识别模型,使该综合属性识别模型从该待识别人脸图像中识别出至少两种人脸属性。
综上所述,本申请实施例提供的人脸属性识别装置,由于第二属性识别模型的模型总层数小于第一属性识别模型的模型总层数,因此根据该第一属性识别模型训练第二属性识别模型得到的目标属性识别模型的模型总层数小于第一属性识别模型的模型总层数,该目标属性识别模型的模型总层数较少,而综合属性识别模型由至少两种目标属性识别模型组合得到,该至少两种目标属性识别模型的输入单元共享,因此该综合属性识别模型的模型总层数较少,该综合属性识别模型较小,通过该综合属性识别模型识别人脸属性的计算量较小,识别效率较高。并且,由于目标属性识别模型是根据第一属性识别模型训练第二属性识别模型得到的,该第一属性识别模型的识别准确性较高,因此可以保证目标属性识别模型的识别准确性,从而保证综合属性识别模型的识别准确性。
可选地,图8是本申请实施例提供的一种第三训练模块303的框图,如图8所示,该第三训练模块303可以包括:
输入子模块3031,用于将同一样本图像分别输入该第一属性识别模型和该第二属性识别模型,得到该第一属性识别模型输出的该样本图像的第一人脸属性以及该第二属性识别模型输出的该样本图像的第二人脸属性;
第一获取子模块3032,用于根据该样本图像的第一人脸属性和该样本图像的第二人脸属性,获取该第二属性识别模型的差异损失;
第二获取子模块3033,用于获取该第二属性识别模型的分类损失;
优化子模块3034,用于根据该第二属性识别模型的差异损失和该第二属性识别模型的分类损失,优化该第二属性识别模型,得到该目标属性识别模型。
可选地,优化子模块3034,用于:
根据该第二属性识别模型的差异损失和该第二属性识别模型的分类损失,确定该第二属性识别模型的综合损失;
根据该第二属性识别模型的综合损失,调整该第二属性识别模型的模型参数,直至该第二属性识别模型的综合损失满足目标条件;
将综合损失满足该目标条件的该第二属性识别模型,确定为该目标属性识别模型。
可选地,该目标属性识别模型的参数精度为第一精度,该综合属性识别模型的参数精度为第二精度,该第二精度小于该第一精度,请参考图9,其示出了本申请实施例提供的另一种人脸属性识别装置300的框图,如图9所示,在图7的基础上,该人脸识别装置300还包括:
调整模块306,用于将至少两种该目标属性识别模型中,每种该目标属性识别模型的参数精度调整至该第二精度。
可选地,该综合属性识别模型的模型总层数小于50。
综上所述,本申请实施例提供的人脸属性识别装置,由于第二属性识别模型的模型总层数小于第一属性识别模型的模型总层数,因此根据该第一属性识别模型训练第二属性识别模型得到的目标属性识别模型的模型总层数小于第一属性识别模型的模型总层数,该目标属性识别模型的模型总层数较少,而综合属性识别模型由至少两种目标属性识别模型组合得到,该至少两种目标属性识别模型的输入单元共享,因此该综合属性识别模型的模型总层数较少,该综合属性识别模型较小,通过该综合属性识别模型识别人脸属性的计算量较小,识别效率较高。并且,由于目标属性识别模型是根据第一属性识别模型训练第二属性识别模型得到的,该第一属性识别模型的识别准确性较高,因此可以保证目标属性识别模型的识别准确性,从而保证综合属性识别模型的识别准确性。该综合属性识别模型较小,可以部署在终端中,终端可以直接利用该综合属性识别模型识别至少两种人脸属性,而需要将待识别人脸图像发送给服务器,有助于提高人脸属性的识别效率。
本申请实施例提供的一种人脸属性识别装置,该装置包括处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述实施例提供的人脸属性识别方法。
示例地,图10是本申请实施例提供的一种人脸属性识别装置400的结构示意图。该装置400可以是终端,比如:监控设备、门禁设备、智能手机、平板电脑、动态影像专家压缩标准音频层面4(英文:Moving Picture Experts Group Audio Layer IV;简称:MP4)播放器、笔记本电脑或台式电脑。该装置400还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,人脸属性识别装置400包括有:处理器401和存储器402。
处理器401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用采用数字信号处理(英文:Digital Signal Processing;简称:DSP)、现场可编程门阵列(英文:Field-Programmable Gate Array;简称:FPGA)、可编程逻辑阵列(英文:Programmable Logic Array;简称:PLA)中的至少一种硬件形式来实现。处理器401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称中央处理器(英文:Central Processing Unit;简称:CPU);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器401可以在集成有图像处理器(英文:Graphics Processing Unit;简称:GPU),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器401还可以包括(英文:Artificial Intelligence;简称:AI),该AI处理器用于处理有关机器学习的计算操作。
存储器402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器401所执行以实现本申请实施例提供的人脸属性识别方法。
在一些实施例中,该装置400还可以包括有:外围设备接口403和至少一个外围设备。处理器401、存储器402和外围设备接口403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口403相连。具体地,外围设备包括:射频电路404、显示屏405、摄像头组件406、音频电路407、定位组件408和电源409中的至少一种。
外围设备接口403可被用于将输入/输出(英文:Input/Output;简称:I/O)相关的至少一个外围设备连接到处理器401和存储器402。在一些实施例中,处理器401、存储器402和外围设备接口403被集成在同一芯片或电路板上;在一些其他实施例中,处理器401、存储器402和外围设备接口403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路404用于接收和发射射频(英文:Radio Frequency;简称:RF)信号,也称电磁信号。射频电路404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或无线保真(英文:Wireless Fidelity;简称:WiFi)网络。在一些实施例中,射频电路404还可以包括近距离无线通信(英文:Near FieldCommunication;简称:NFC)有关的电路,本申请对此不加以限定。
显示屏405用于显示用户界面(英文:User Interface;简称:UI)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏405是触摸显示屏时,显示屏405还具有采集在显示屏405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器401进行处理。此时,显示屏405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏405可以为一个,设置终端400的前面板;在另一些实施例中,显示屏405可以为至少两个,分别设置在终端400的不同表面或呈折叠设计;在再一些实施例中,显示屏405可以是柔性显示屏,设置在终端400的弯曲表面上或折叠面上。甚至,显示屏405还可以设置成非矩形的不规则图形,也即异形屏。显示屏405可以为有机发光二极管(英文:Organic Light-Emitting Diode;简称:OLED)显示屏。
摄像头组件406用于采集图像或视频。可选地,摄像头组件406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及虚拟现实(英文:Virtual Reality;简称:VR)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器401进行处理,或者输入至射频电路404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在人脸属性识别装置400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器401或射频电路404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路407还可以包括耳机插孔。
定位组件408用于定位该装置400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件408可以是基于美国的全球定位系统(英文:Global Positioning System;简称:GPS)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源409用于为该装置400中的各个组件进行供电。电源409可以是交流电、直流电、一次性电池或可充电电池。当电源409包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,人脸属性识别装置400还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。
加速度传感器411可以检测以该装置400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器401可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏405以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器412可以检测该装置400的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对该装置400的3D动作。处理器401根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器413可以设置在该装置400的侧边框和/或触摸显示屏405的下层。当压力传感器413设置在该装置400的侧边框时,可以检测用户对该装置400的握持信号,由处理器401根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏405的下层时,由处理器401根据用户对触摸显示屏405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器414用于采集用户的指纹,由处理器401根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器414可以被设置该装置400的正面、背面或侧面。当该装置400上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
光学传感器415用于采集环境光强度。在一个实施例中,处理器401可以根据光学传感器415采集的环境光强度,控制触摸显示屏405的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏405的显示亮度;当环境光强度较低时,调低触摸显示屏405的显示亮度。在另一个实施例中,处理器401还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件406的拍摄参数。
接近传感器416,也称距离传感器,通常设置在该装置400的前面板。接近传感器416用于采集用户与该装置400的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与该装置400的正面之间的距离逐渐变小时,由处理器401控制触摸显示屏405从亮屏状态切换为息屏状态;当接近传感器416检测到用户与终端400的正面之间的距离逐渐变大时,由处理器401控制触摸显示屏405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图10中示出的结构并不构成对人脸属性识别装置400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例提供了一种存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述实施例提供的人脸属性识别方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本申请实施例中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。术语“多个”指两个或两个以上,除非另有明确的限定。术语“至少一个”指一个或一个以上,除非另有明确的限定。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的构思和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种人脸属性识别方法,其特征在于,所述方法包括:
根据第一初始识别模型和训练图像集,训练得到第一属性识别模型;
根据第二初始识别模型和所述训练图像集,训练得到第二属性识别模型,所述第二属性识别模型的模型总层数小于所述第一属性识别模型的模型总层数;
根据所述第一属性识别模型训练所述第二属性识别模型,得到目标属性识别模型,所述目标属性识别模型包括输入单元和识别单元;
将至少两种所述目标属性识别模型的所述输入单元合并为共享输入单元,使所述共享输入单元与每个所述目标属性识别模型的所述识别单元连接,得到综合属性识别模型,每种所述目标属性识别模型用于从输入所述目标属性识别模型的人脸图像中识别出一种人脸属性;
将待识别人脸图像输入所述综合属性识别模型,使所述综合属性识别模型从所述待识别人脸图像中识别出至少两种人脸属性。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一属性识别模型训练所述第二属性识别模型,得到目标属性识别模型,包括:
将同一样本图像分别输入所述第一属性识别模型和所述第二属性识别模型,得到所述第一属性识别模型输出的所述样本图像的第一人脸属性以及所述第二属性识别模型输出的所述样本图像的第二人脸属性;
根据所述样本图像的第一人脸属性和所述样本图像的第二人脸属性,获取所述第二属性识别模型的差异损失;
获取所述第二属性识别模型的分类损失;
根据所述第二属性识别模型的差异损失和所述第二属性识别模型的分类损失,优化所述第二属性识别模型,得到所述目标属性识别模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第二属性识别模型的差异损失和所述第二属性识别模型的分类损失,优化所述第二属性识别模型,得到所述目标属性识别模型,包括:
根据所述第二属性识别模型的差异损失和所述第二属性识别模型的分类损失,确定所述第二属性识别模型的综合损失;
根据所述第二属性识别模型的综合损失,调整所述第二属性识别模型的模型参数,直至所述第二属性识别模型的综合损失满足目标条件;
将综合损失满足所述目标条件的所述第二属性识别模型,确定为所述目标属性识别模型。
4.根据权利要求1所述的方法,其特征在于,所述目标属性识别模型的参数精度为第一精度,所述综合属性识别模型的参数精度为第二精度,所述第二精度小于所述第一精度,
在将至少两种所述目标属性识别模型的所述输入单元合并为共享输入单元之前,所述方法还包括:
将至少两种所述目标属性识别模型中,每种所述目标属性识别模型的参数精度调整至所述第二精度。
5.根据权利要求1至4任一所述的方法,其特征在于,
所述综合属性识别模型的模型总层数小于50。
6.一种人脸属性识别装置,其特征在于,所述装置包括:
第一训练模块,用于根据第一初始识别模型和训练图像集,训练得到第一属性识别模型;
第二训练模块,用于根据第二初始识别模型和所述训练图像集,训练得到第二属性识别模型,所述第二属性识别模型的模型总层数小于所述第一属性识别模型的模型总层数;
第三训练模块,用于根据所述第一属性识别模型训练所述第二属性识别模型,得到目标属性识别模型,所述目标属性识别模型包括输入单元和识别单元;
综合训练模块,用于将至少两种所述目标属性识别模型的所述输入单元合并为共享输入单元,使所述共享输入单元与每个所述目标属性识别模型的所述识别单元连接,得到综合属性识别模型,每种所述目标属性识别模型用于从输入所述目标属性识别模型的人脸图像中识别出一种人脸属性;
属性识别模块,用于将待识别人脸图像输入所述综合属性识别模型,使所述综合属性识别模型从所述待识别人脸图像中识别出至少两种人脸属性。
7.根据权利要求6所述的装置,其特征在于,所述第三训练模块,包括:
输入子模块,用于将同一样本图像分别输入所述第一属性识别模型和所述第二属性识别模型,得到所述第一属性识别模型输出的所述样本图像的第一人脸属性以及所述第二属性识别模型输出的所述样本图像的第二人脸属性;
第一获取子模块,用于根据所述样本图像的第一人脸属性和所述样本图像的第二人脸属性,获取所述第二属性识别模型的差异损失;
第二获取子模块,用于获取所述第二属性识别模型的分类损失;
优化子模块,用于根据所述根第二属性识别模型的差异损失和所述第二属性识别模型的分类损失,优化所述第二属性识别模型,得到所述目标属性识别模型。
8.根据权利要求7所述的装置,其特征在于,所述优化子模块,用于:
根据所述第二属性识别模型的差异损失和所述第二属性识别模型的分类损失,确定所述第二属性识别模型的综合损失;
根据所述第二属性识别模型的综合损失,调整所述第二属性识别模型的模型参数,直至所述第二属性识别模型的综合损失满足目标条件;
将综合损失满足所述目标条件的所述第二属性识别模型,确定为所述目标属性识别模型。
9.一种人脸属性识别装置,其特征在于,所述装置包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现权利要求1至5任一所述的方法。
10.一种存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现权利要求1至5任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911272659.1A CN111027490B (zh) | 2019-12-12 | 2019-12-12 | 人脸属性识别方法及装置、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911272659.1A CN111027490B (zh) | 2019-12-12 | 2019-12-12 | 人脸属性识别方法及装置、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111027490A true CN111027490A (zh) | 2020-04-17 |
CN111027490B CN111027490B (zh) | 2023-05-30 |
Family
ID=70206214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911272659.1A Active CN111027490B (zh) | 2019-12-12 | 2019-12-12 | 人脸属性识别方法及装置、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111027490B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111814611A (zh) * | 2020-06-24 | 2020-10-23 | 重庆邮电大学 | 一种嵌入高阶信息的多尺度人脸年龄估计方法及系统 |
CN112257503A (zh) * | 2020-09-16 | 2021-01-22 | 深圳微步信息股份有限公司 | 一种性别年龄识别方法、装置及存储介质 |
CN113780046A (zh) * | 2020-12-21 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 用于训练人脸图像识别模型的方法和装置 |
CN114120406A (zh) * | 2021-11-22 | 2022-03-01 | 四川轻化工大学 | 基于卷积神经网络的人脸特征提取分类方法 |
CN116302294A (zh) * | 2023-05-18 | 2023-06-23 | 安元科技股份有限公司 | 一种界面化自动识别组件属性的方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039994A (ja) * | 2009-08-18 | 2011-02-24 | Nec Soft Ltd | 部品検出装置、部品検出方法、プログラムおよび記録媒体 |
CN108537193A (zh) * | 2018-04-17 | 2018-09-14 | 厦门美图之家科技有限公司 | 一种人脸属性中的种族属性识别方法及移动终端 |
CN108805185A (zh) * | 2018-05-29 | 2018-11-13 | 腾讯科技(深圳)有限公司 | 模型的训练方法、装置、存储介质及计算机设备 |
CN109523532A (zh) * | 2018-11-13 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
CN109543537A (zh) * | 2018-10-23 | 2019-03-29 | 北京市商汤科技开发有限公司 | 重识别模型增量训练方法及装置、电子设备和存储介质 |
CN110046941A (zh) * | 2019-04-23 | 2019-07-23 | 杭州智趣智能信息技术有限公司 | 一种人脸识别方法、系统及电子设备和存储介质 |
CN110135389A (zh) * | 2019-05-24 | 2019-08-16 | 北京探境科技有限公司 | 人脸属性识别方法及装置 |
CN110163151A (zh) * | 2019-05-23 | 2019-08-23 | 北京迈格威科技有限公司 | 人脸模型的训练方法、装置、计算机设备和存储介质 |
CN110175975A (zh) * | 2018-12-14 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 对象检测方法、装置、计算机可读存储介质和计算机设备 |
CN110276403A (zh) * | 2019-06-25 | 2019-09-24 | 北京百度网讯科技有限公司 | 模型建立方法和装置 |
CN110298240A (zh) * | 2019-05-21 | 2019-10-01 | 北京迈格威科技有限公司 | 一种汽车用户识别方法、装置、系统及存储介质 |
-
2019
- 2019-12-12 CN CN201911272659.1A patent/CN111027490B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039994A (ja) * | 2009-08-18 | 2011-02-24 | Nec Soft Ltd | 部品検出装置、部品検出方法、プログラムおよび記録媒体 |
CN108537193A (zh) * | 2018-04-17 | 2018-09-14 | 厦门美图之家科技有限公司 | 一种人脸属性中的种族属性识别方法及移动终端 |
CN108805185A (zh) * | 2018-05-29 | 2018-11-13 | 腾讯科技(深圳)有限公司 | 模型的训练方法、装置、存储介质及计算机设备 |
CN109543537A (zh) * | 2018-10-23 | 2019-03-29 | 北京市商汤科技开发有限公司 | 重识别模型增量训练方法及装置、电子设备和存储介质 |
CN109523532A (zh) * | 2018-11-13 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
CN110175975A (zh) * | 2018-12-14 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 对象检测方法、装置、计算机可读存储介质和计算机设备 |
CN110046941A (zh) * | 2019-04-23 | 2019-07-23 | 杭州智趣智能信息技术有限公司 | 一种人脸识别方法、系统及电子设备和存储介质 |
CN110298240A (zh) * | 2019-05-21 | 2019-10-01 | 北京迈格威科技有限公司 | 一种汽车用户识别方法、装置、系统及存储介质 |
CN110163151A (zh) * | 2019-05-23 | 2019-08-23 | 北京迈格威科技有限公司 | 人脸模型的训练方法、装置、计算机设备和存储介质 |
CN110135389A (zh) * | 2019-05-24 | 2019-08-16 | 北京探境科技有限公司 | 人脸属性识别方法及装置 |
CN110276403A (zh) * | 2019-06-25 | 2019-09-24 | 北京百度网讯科技有限公司 | 模型建立方法和装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111814611A (zh) * | 2020-06-24 | 2020-10-23 | 重庆邮电大学 | 一种嵌入高阶信息的多尺度人脸年龄估计方法及系统 |
CN112257503A (zh) * | 2020-09-16 | 2021-01-22 | 深圳微步信息股份有限公司 | 一种性别年龄识别方法、装置及存储介质 |
CN113780046A (zh) * | 2020-12-21 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 用于训练人脸图像识别模型的方法和装置 |
CN114120406A (zh) * | 2021-11-22 | 2022-03-01 | 四川轻化工大学 | 基于卷积神经网络的人脸特征提取分类方法 |
CN114120406B (zh) * | 2021-11-22 | 2024-06-07 | 四川轻化工大学 | 基于卷积神经网络的人脸特征提取分类方法 |
CN116302294A (zh) * | 2023-05-18 | 2023-06-23 | 安元科技股份有限公司 | 一种界面化自动识别组件属性的方法及系统 |
CN116302294B (zh) * | 2023-05-18 | 2023-09-01 | 安元科技股份有限公司 | 一种界面化自动识别组件属性的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111027490B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829456B (zh) | 图像识别方法、装置及终端 | |
CN110807361B (zh) | 人体识别方法、装置、计算机设备及存储介质 | |
CN111027490B (zh) | 人脸属性识别方法及装置、存储介质 | |
CN111127509B (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN110933468A (zh) | 播放方法、装置、电子设备及介质 | |
US11386586B2 (en) | Method and electronic device for adding virtual item | |
CN110650379A (zh) | 视频摘要生成方法、装置、电子设备及存储介质 | |
CN112084811A (zh) | 身份信息的确定方法、装置及存储介质 | |
CN110705614A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN110677713B (zh) | 视频图像处理方法及装置、存储介质 | |
CN111327819A (zh) | 选择图像的方法、装置、电子设备及介质 | |
CN111931712B (zh) | 人脸识别方法、装置、抓拍机及系统 | |
CN111179628B (zh) | 自动驾驶车辆的定位方法、装置、电子设备及存储介质 | |
CN110163192B (zh) | 字符识别方法、装置及可读介质 | |
CN110853124A (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN111753606A (zh) | 一种智能模型的升级方法及装置 | |
CN113343709B (zh) | 意图识别模型的训练方法、意图识别方法、装置及设备 | |
CN111988664B (zh) | 视频处理方法、装置、计算机设备及计算机可读存储介质 | |
CN113936240A (zh) | 确定样本图像的方法、装置、设备及存储介质 | |
CN111723615B (zh) | 对检测物图像进行检测物匹配判定的方法和装置 | |
CN111757146B (zh) | 视频拼接的方法、系统及存储介质 | |
CN115221888A (zh) | 实体提及的识别方法、装置、设备及存储介质 | |
CN112163677A (zh) | 应用机器学习模型的方法、装置及设备 | |
CN112990424A (zh) | 神经网络模型训练的方法和装置 | |
CN111898488A (zh) | 视频图像的识别方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40021510 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |