CN107729909B - 一种属性分类器的应用方法及装置 - Google Patents

一种属性分类器的应用方法及装置 Download PDF

Info

Publication number
CN107729909B
CN107729909B CN201610655960.0A CN201610655960A CN107729909B CN 107729909 B CN107729909 B CN 107729909B CN 201610655960 A CN201610655960 A CN 201610655960A CN 107729909 B CN107729909 B CN 107729909B
Authority
CN
China
Prior art keywords
classifier
attribute
target
level
target attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610655960.0A
Other languages
English (en)
Other versions
CN107729909A (zh
Inventor
赵波锋
李海滨
胡晓峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Group Henan Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Group Henan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Group Henan Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN201610655960.0A priority Critical patent/CN107729909B/zh
Publication of CN107729909A publication Critical patent/CN107729909A/zh
Application granted granted Critical
Publication of CN107729909B publication Critical patent/CN107729909B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及图像处理技术领域,尤其涉及一种属性分类器的应用方法及装置,包括:根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。本发明实施例,针对一个属性对应的级别,来选择相应的卷积核和池化单位,从而可以训练得到多个级别不同的属性分类器,从而可以实现更加有效地对不同的属性进行准确的分类。

Description

一种属性分类器的应用方法及装置
技术领域
本发明涉及图像处理技术领域,尤其涉及一种属性分类器的应用方法及装置。
背景技术
通过不同的属性对人脸图片进行识别是人脸识别的一个重要领域。属性分类器指的是根据某个属性对人脸图片进行分类,例如年龄分类器,可以通过年龄这个属性对人脸图片进行分类,比如可以分类为0-10岁区间,10-20岁区间,20-20岁区间,等等;再比如性别属性分类器,可通过性别这个属性对人脸图片进行分类,比如可以分类为男性和女性;再比如肤色分类器,可以根据肤色这个属性对人脸图片进行分类,比如可以分类为黑色皮肤,白色皮肤,黄色皮肤。
属性分类器主要是通过大量的人脸图片样本对属性分类器进行训练得到的,目前属性分类器的训练主要是通过CNN方法来训练的,主要为:使用相同的CNN模型(即具有相同数量的卷积核和相同的池化单位)来对不同的属性进行训练,从而得到具有相同级别的多个属性分类器。
上述对属性分类器进行训练的方法存在的主要问题为:对所有的属性分类器都使用相同的CNN模型来训练,但实际中,由于有的属性分类比较难(比如对于年龄的分类),而有的分类比较简单(比如对于性别的分类),从而导致无法针对属性的分类难易程度而得到具有针对性的多个属性分类器。
综上所述,现有对多个属性分类器进行训练的方法存在无法训练得到不同级别的属性分类器。
发明内容
本发明提供一种属性分类器的应用及装置,用以解决现有技术中存在的对多个属性分类器进行训练时无法训练得到不同级别的属性分类器的技术问题。
一方面,本发明实施例提供一种属性分类器的应用方法,包括:
根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;
根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。
可选地,所述相同级别的属性分类器分别对应的CNN模型中的卷积核相同,所述不同级别的属性分类器中的高级别属性分类器对应的CNN模型中的卷积核包含低级别的属性分类器对应的CNN模型中的卷积核。
可选地,所述得到训练后的目标属性分类器之后,还包括:
获取待检测样本并确定所述待检测样本的的待检测属性;
若所述待检测属性与所述目标属性分类器对应的属性相同,则根据所述训练后的目标属性分类器对所述待检测属性进行分类。
可选地,所述根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,包括:
激活所述目标属性分类器;
将所述训练样本数据及所述CNN模型中的卷积核和池化单位输入到所述目标属性分类器中,对所述目标属性分类器进行训练。
可选地,所述目标属性分类器包含下列部分或者全部:
年龄分类器、性别分类器、表情分类器、肤色分类器。
另一方面,本发明实施例提供一种属性分类器的应用装置,包括:
确定单元,用于根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;
训练单元,用于根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。
可选地,所述相同级别的属性分类器分别对应的CNN模型中的卷积核相同,所述不同级别的属性分类器中的高级别属性分类器对应的CNN模型中的卷积核包含低级别的属性分类器对应的CNN模型中的卷积核。
可选地,所述装置还包括分类单元,用于:
获取待检测样本并确定所述待检测样本的的待检测属性;
若所述待检测属性与所述目标属性分类器对应的属性相同,则根据所述训练后的目标属性分类器对所述待检测属性进行分类。
可选地,所述训练单元,具体用于:
激活所述目标属性分类器;
将所述训练样本数据及所述CNN模型中的卷积核和池化单位输入到所述目标属性分类器中,对所述目标属性分类器进行训练。
可选地,所述目标属性分类器包含下列部分或者全部:
年龄分类器、性别分类器、表情分类器、肤色分类器。
本发明实施例,根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。本发明实施例,针对一个属性对应的级别,来选择相应的卷积核和池化单位,从而可以训练得到多个级别不同的属性分类器,从而可以实现更加有效地对不同的属性进行准确的分类。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种属性分类器的应用方法流程图;
图2为本发明实施例提供的属性分类器的训练方法示意图;
图3为本发明实施例提供的一种属性分类器的应用方法详细流程图;
图4为本发明实施例提供的一种属性分类器的应用装置示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
下面结合说明书附图对本发明实施例作进一步详细描述。
如图1所示,本发明实施例提供的一种属性分类器的应用方法,包括:
步骤101、根据目标属性分类器对应的级别,确定所述目标属性分类器对应的CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;
步骤102、根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。
由于根据某个属性对人脸图片进行分类时,不同的属性对应的分类难易程度是不同的,例如,对于根据性别这个属性对人脸图片进行分类时是比较容易的,因为男性和女性所表现出的人脸图片中的特征区别是比较大的;再比如,对于根据年龄这个属性对人脸图片进行分类时则相对比较困难一些,例如需要将人脸图片按照0-10岁,10-20岁,20-30岁等等来分类时,可能因为有的人脸图片时出现的是人的笑脸图片,而人在笑的时候可能会出现皱纹,这将导致可能会将笑脸图片分类到比实际年龄偏大的组别中,比如将一个35岁的年轻人的笑脸图片分类到40-50岁区间中,从而造成错误分类。
因此,为了更加准确地根据不同的属性对人脸图片进行分类,本发明实施例对于不同的属性预先进行划分等级,例如对于相对容易区分的属性则划分为低级别,对于相对困难区分的属性则划分为高级别,并且对于每个属性都训练生成一个目标属性分类器。
可选地,本发明实施例中,目标属性分类器包含下列部分或者全部:年龄分类器、性别分类器、表情分类器、肤色分类器。
举例来说,可以将性别分类器划分为级别1,将肤色分类器划分为级别2,将表情分类器划分为级别3,将年龄分类器划分为级别4,当然这里只是作为举例进行说明,实际应用中,属性分类器并不限于以上这些类型的分类器,可根据实际需要而设置。
本发明实例将采用CNN(Convolutional Neural Network,卷积神经网络)模型来对每个目标属性分类器进行训练。并且,对于不同级别的属性分类器,在进行训练的时候,训练的深度也是不一样的,对于级别比较低的属性分类器,则使用较少的卷积核,对于级别比较高的属性分类器,则使用较多的卷积核。
本发明实施例中,将任一个需要进行训练的属性分类器称之为目标属性分类器,后续不再做特别说明。
例如,参考图2,为本发明实施例提供的属性分类器的训练方法示意图。其中,示例性地给出了对于3个目标属性分类器进行训练的过程,从中可以看出,属性1分类器级别最高,对应的是级别3;属性2分类器级别次之,对应的是级别2;属性3级别最低,对应的是级别1。并且,在图2中,可以看出,在级别1上进行目标属性分类器的训练时,首先是必须要得到1个属性3分类器的,而对于属性1分类器和属性2分类器,由于它们对应的级别更高,因此在训练属性3分类器时,可以无需训练得到级别1的属性1分类器和级别1的属性2分类器,但是,在本发明实例中,为了验证同一个属性分类器在不同训练深度的情况的分类效果,因此在级别1中,我们也训练得到一个级别1的属性1分类器和级别1的属性2分类器;基于同样的理由,在训练级别2的属性分类器时,至少需要一个训练出一个级别2的属性2分类器,而对于级别2的属性1分类器的训练也只是为了与其它级别的属性1分类器进行分类效果的对比;而在级别3的属性分类器的训练时,由于只有属性1分类器是级别3的属性分类器,因此只能训练得到一个级别3的属性1分类器。
因此,根据图2所示,本发明实施例将得到如下一些训练后的目标属性分类器:
第一组:级别1的属性1分类器、级别2的属性1分类器、级别3的属性1分类器。
其中,实际应用中,将使用级别3的属性1分类器来对人脸图片进行分类,而级别1的属性1分类器和级别2的属性1分类器在本发明实施例中只是用于对比分类效果。
第二组:级别1的属性2分类器、级别2的属性2分类器。
其中,实际应用中,将使用级别2的属性2分类器来对人脸图片进行分类,而级别1的属性2分类器在本发明实施例中只是用于对比分类效果。
第三组:级别1的属性3分类器。
其中,实际应用中,将使用级别1的属性3分类器来对人脸图片进行分类。
下面对本发明实施例中,对于目标属性分类器的训练方法做详细说明。
在上述步骤101中,根据目标属性分类器对应的级别,确定所述目标属性分类器对应的CNN模型中的卷积核和池化单位。
参考图2,可以按照图2所示的架构预先设置好CNN模型,然后对于不同级别的目标属性分类器,预先设置好相应的卷积核数量以及具体的卷积核参数。并且对于相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同。如图2所示,其中的“Conv”即表示对样本人脸图片进行卷积操作。
举例来说,假设要训练的目标属性分类器是级别1的属性3分类器,则由于其级别是1,则可以确定其对应的CNN模型中的卷积核为5个卷积核,即图2所示的级别1的虚线框中的5个“Conv”卷积核,以及确定相应的池化单位为3个Maxpool池化单位和一个Avepool池化单位,而对于其它参数则选用默认配置,比如FC(Full-connected,全连接)层以及Softmanx判定器。
再比如,假设要训练的目标属性分类器是级别3的属性1分类器,则由于其级别是3,则可以确定其对应的CNN模型中的卷积核为11个卷积核,即图2所示的级别3的实线框中的11个“Conv”卷积核,以及确定相应的池化单位为3个Maxpool池化单位和一个Avepool池化单位,而对于其它参数则选用默认配置,比如FC(Full-connected,全连接)层以及Softmanx判定器。
并且在本发明实例中,参考图2,可选地,所述相同级别的属性分类器分别对应的CNN模型中的卷积核相同,所述不同级别的属性分类器中的高级别属性分类器对应的CNN模型中的卷积核包含低级别的属性分类器对应的CNN模型中的卷积核。
举例来说,级别3的属性1分类器对应的11个“Conv”卷积核中有8个“Conv”卷积核是与级别2的属性2分类器对应的8个“Conv”卷积核相同,以及与级别1的属性3分类器对应的5个“Conv”卷积核相同。
在上述步骤102中,根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。
举例地,如何根据训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,属于现有技术内容,本发明在此不再过过多赘述。
特别地,本发明实例中,还可以根据下列方式实现对多个属性分类器进行训练,可选地,所述根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,包括:
激活所述目标属性分类器;
将所述训练样本数据及所述CNN模型中的卷积核和池化单位输入到所述目标属性分类器中,对所述目标属性分类器进行训练。
在上述方法中,由于需要对多个属性分类器进行训练,因此当需要训练某个目标属性分类器时,首先激活该目标属性分类器,然后将得到的训练样本数据及所述CNN模型中的卷积核和池化单位输入到所述目标属性分类器中进行训练。
此外,还可以是对如图2所示的多个不同级别的属性分类器进行同时训练,具体地,可以将同一批训练样本数据输入到如图2所示的结构时,然后并发地对不同级别的多个属性分类器进行同时训练,从而可以节约训练时间,完成对多个属性分类器的训练,该方法可提高对多个属性分类器的训练速度,提高训练效率。
在根据上述步骤101~步骤102的方法完成对目标属性分类器的训练之后,即可使用训练后的目标属性分类器来对人脸图片进行分类,可选地,获取待检测样本并确定所述待检测样本的的待检测属性;若所述待检测属性与所述目标属性分类器对应的属性相同,则根据所述训练后的目标属性分类器对所述待检测属性进行分类。
举例来说,假设训练得到了级别3的属性1分类器、级别2的属性2分类器和级别1的属性3分类器。
则在对人脸图片进行分类时,首先确定要进行分类的属性,假设需要根据属性1来对人脸图片进行分类,由于属性1对应的是级别3,因此根据级别3的属性1分类器来对所述人脸图片进行分类。
根据实验结果证明,对于同一个属性,使用不同级别的属性分类器对同样的人脸图片进行分类时,级别越高的属性分类器将得到更高的分类准确率。
以将性别分类器划分为级别1,将肤色分类器划分为级别2,将表情分类器划分为级别3,将年龄分类器划分为级别4为例,得到的实验结果如表1所示:
属性 级别1分类器 级别2分类器 级别3分类器 级别4分类器
性别分类器 95.34% - - -
肤色分类器 92.01% 94.87% - -
表情分类器 85.63% 89.52% 91.06% -
年龄分类器 78.25% 80.36% 85.41% 86.37%
表1
由上表可以看出,对于同一个属性分类器,级别越高,分类结果准确率越高。
本发明实施例,根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。本发明实施例,针对一个属性对应的级别,来选择相应的卷积核和池化单位,从而可以训练得到多个级别不同的属性分类器,从而可以实现更加有效地对不同的属性进行准确的分类。
下面对本发明实施例提供的一种属性分类器的应用方法做详细描述,如图3所示,包括:
步骤301、根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;
步骤302、激活所述目标属性分类器;
步骤303、将所述训练样本数据及所述CNN模型中的卷积核和池化单位输入到所述目标属性分类器中,对所述目标属性分类器进行训练,得到训练后的目标属性分类器;
步骤304、获取待检测样本并确定所述待检测样本的的待检测属性;
步骤305、若所述待检测属性与所述目标属性分类器对应的属性相同,则根据所述训练后的目标属性分类器对所述待检测属性进行分类。
本发明实施例,根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。本发明实施例,针对一个属性对应的级别,来选择相应的卷积核和池化单位,从而可以训练得到多个级别不同的属性分类器,从而可以实现更加有效地对不同的属性进行准确的分类。
基于相同的技术构思,本发明实施例还提供一种属性分类器的应用装置,如图4所示,包括:
确定单元401,用于根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;
训练单元402,用于根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。
可选地,所述相同级别的属性分类器分别对应的CNN模型中的卷积核相同,所述不同级别的属性分类器中的高级别属性分类器对应的CNN模型中的卷积核包含低级别的属性分类器对应的CNN模型中的卷积核。
可选地,所述装置还包括分类单元403,用于:
获取待检测样本并确定所述待检测样本的的待检测属性;
若所述待检测属性与所述目标属性分类器对应的属性相同,则根据所述训练后的目标属性分类器对所述待检测属性进行分类。
可选地,所述训练单元402,具体用于:
激活所述目标属性分类器;
将所述训练样本数据及所述CNN模型中的卷积核和池化单位输入到所述目标属性分类器中,对所述目标属性分类器进行训练。
可选地,所述目标属性分类器包含下列部分或者全部:
年龄分类器、性别分类器、表情分类器、肤色分类器。
本发明实施例,根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。本发明实施例,针对一个属性对应的级别,来选择相应的卷积核和池化单位,从而可以训练得到多个级别不同的属性分类器,从而可以实现更加有效地对不同的属性进行准确的分类。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种属性分类器的应用方法,其特征在于,包括:
根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,所述目标属性分类器对应的级别是根据目标的多种不同属性确定的,所述目标的多种不同属性包括年龄、性别、表情和肤色;相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;
根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。
2.如权利要求1所述的方法,其特征在于,所述相同级别的属性分类器分别对应的CNN模型中的卷积核相同,所述不同级别的属性分类器中的高级别属性分类器对应的CNN模型中的卷积核包含低级别的属性分类器对应的CNN模型中的卷积核。
3.如权利要求1所述的方法,其特征在于,所述得到训练后的目标属性分类器之后,还包括:
获取待检测样本并确定所述待检测样本的待检测属性;
若所述待检测属性与所述目标属性分类器对应的属性相同,则根据所述训练后的目标属性分类器对所述待检测属性进行分类。
4.如权利要求1所述的方法,其特征在于,所述根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,包括:
激活所述目标属性分类器;
将所述训练样本数据及所述CNN模型中的卷积核和池化单位输入到所述目标属性分类器中,对所述目标属性分类器进行训练。
5.如权利要求1-4中任一项所述的方法,其特征在于,所述目标属性分类器包含下列部分或者全部:
年龄分类器、性别分类器、表情分类器、肤色分类器。
6.一种属性分类器的应用装置,其特征在于,包括:
确定单元,用于根据目标属性分类器对应的级别,确定所述目标属性分类器对应的卷积神经网络CNN模型中的卷积核和池化单位,其中,所述目标属性分类器对应的级别是根据目标的多种不同属性确定的,所述目标的多种不同属性包括年龄、性别、表情和肤色;相同级别的属性分类器对应的CNN模型中的卷积核数量相同,不同级别的属性分类器对应的CNN模型中的卷积核数量不相同;
训练单元,用于根据获取到的训练样本数据及确定的所述CNN模型中的卷积核和池化单位,对所述目标属性分类器进行训练,得到训练后的目标属性分类器。
7.如权利要求6所述的装置,其特征在于,所述相同级别的属性分类器分别对应的CNN模型中的卷积核相同,所述不同级别的属性分类器中的高级别属性分类器对应的CNN模型中的卷积核包含低级别的属性分类器对应的CNN模型中的卷积核。
8.如权利要求6所述的装置,其特征在于,所述装置还包括分类单元,用于:
获取待检测样本并确定所述待检测样本的待检测属性;
若所述待检测属性与所述目标属性分类器对应的属性相同,则根据所述训练后的目标属性分类器对所述待检测属性进行分类。
9.如权利要求6所述的装置,其特征在于,所述训练单元,具体用于:
激活所述目标属性分类器;
将所述训练样本数据及所述CNN模型中的卷积核和池化单位输入到所述目标属性分类器中,对所述目标属性分类器进行训练。
10.如权利要求6-9中任一项所述的装置,其特征在于,所述目标属性分类器包含下列部分或者全部:
年龄分类器、性别分类器、表情分类器、肤色分类器。
CN201610655960.0A 2016-08-11 2016-08-11 一种属性分类器的应用方法及装置 Active CN107729909B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610655960.0A CN107729909B (zh) 2016-08-11 2016-08-11 一种属性分类器的应用方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610655960.0A CN107729909B (zh) 2016-08-11 2016-08-11 一种属性分类器的应用方法及装置

Publications (2)

Publication Number Publication Date
CN107729909A CN107729909A (zh) 2018-02-23
CN107729909B true CN107729909B (zh) 2020-10-30

Family

ID=61199574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610655960.0A Active CN107729909B (zh) 2016-08-11 2016-08-11 一种属性分类器的应用方法及装置

Country Status (1)

Country Link
CN (1) CN107729909B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886072B (zh) * 2018-12-25 2021-02-26 中国科学院自动化研究所 基于双向Ladder结构的人脸属性分类系统
CN111028260A (zh) * 2019-12-17 2020-04-17 上海眼控科技股份有限公司 图像预测方法、装置、计算机设备和存储介质
CN117058555B (zh) * 2023-06-29 2024-07-30 北京空间飞行器总体设计部 一种遥感卫星图像分级管理的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824054A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联深度神经网络的人脸属性识别方法
CN104143079A (zh) * 2013-05-10 2014-11-12 腾讯科技(深圳)有限公司 人脸属性识别的方法和系统
CN104537630A (zh) * 2015-01-22 2015-04-22 厦门美图之家科技有限公司 一种基于年龄估计的图像美颜方法和装置
CN105404877A (zh) * 2015-12-08 2016-03-16 商汤集团有限公司 基于深度学习和多任务学习的人脸属性预测方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8442927B2 (en) * 2009-07-30 2013-05-14 Nec Laboratories America, Inc. Dynamically configurable, multi-ported co-processor for convolutional neural networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104143079A (zh) * 2013-05-10 2014-11-12 腾讯科技(深圳)有限公司 人脸属性识别的方法和系统
CN103824054A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联深度神经网络的人脸属性识别方法
CN104537630A (zh) * 2015-01-22 2015-04-22 厦门美图之家科技有限公司 一种基于年龄估计的图像美颜方法和装置
CN105404877A (zh) * 2015-12-08 2016-03-16 商汤集团有限公司 基于深度学习和多任务学习的人脸属性预测方法及装置

Also Published As

Publication number Publication date
CN107729909A (zh) 2018-02-23

Similar Documents

Publication Publication Date Title
US11348249B2 (en) Training method for image semantic segmentation model and server
US20200143248A1 (en) Machine learning model training method and device, and expression image classification method and device
CN107944020B (zh) 人脸图像查找方法及装置、计算机装置和存储介质
CN111079639B (zh) 垃圾图像分类模型构建的方法、装置、设备及存储介质
US10803398B2 (en) Apparatus and method for information processing
CN107958230B (zh) 人脸表情识别方法及装置
Santoni et al. Cattle race classification using gray level co-occurrence matrix convolutional neural networks
CN108009222B (zh) 基于较优视图和深度卷积神经网络的三维模型检索方法
US9613296B1 (en) Selecting a set of exemplar images for use in an automated image object recognition system
CN105956179B (zh) 数据过滤方法及装置
CN106897746A (zh) 数据分类模型训练方法和装置
CN107784321B (zh) 数字绘本快速识别方法、系统及计算机可读存储介质
US11093800B2 (en) Method and device for identifying object and computer readable storage medium
CN105320945A (zh) 图像分类的方法及装置
CN107729909B (zh) 一种属性分类器的应用方法及装置
CN109635669B (zh) 图像分类方法、装置及分类模型的训练方法、装置
CN112307860A (zh) 图像识别模型训练方法和装置、图像识别方法和装置
RU2013134325A (ru) Устройство и способ распознавания жестов на основе анализа множества возможных границ раздела
CN113689436A (zh) 图像语义分割方法、装置、设备及存储介质
CN111191584A (zh) 一种人脸识别方法及装置
CN113704623A (zh) 一种数据推荐方法、装置、设备及存储介质
CN106897282A (zh) 一种用户群的分类方法和设备
CN103870563B (zh) 确定给定文本的主题分布的方法和装置
CN111178153A (zh) 一种交通标志检测方法及系统
Liang et al. A supervised figure-ground segmentation method using genetic programming

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant