CN103262118B - 属性值估计装置和属性值估计方法 - Google Patents

属性值估计装置和属性值估计方法 Download PDF

Info

Publication number
CN103262118B
CN103262118B CN201180059057.3A CN201180059057A CN103262118B CN 103262118 B CN103262118 B CN 103262118B CN 201180059057 A CN201180059057 A CN 201180059057A CN 103262118 B CN103262118 B CN 103262118B
Authority
CN
China
Prior art keywords
value
estimation
estimated
discrete magnitude
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201180059057.3A
Other languages
English (en)
Other versions
CN103262118A (zh
Inventor
植木一也
伊原康行
杉山将
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Electrical Scheme Innovation Corporation
Original Assignee
Japan Electrical Scheme Innovation Corp
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Electrical Scheme Innovation Corp, Tokyo Institute of Technology NUC filed Critical Japan Electrical Scheme Innovation Corp
Publication of CN103262118A publication Critical patent/CN103262118A/zh
Application granted granted Critical
Publication of CN103262118B publication Critical patent/CN103262118B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)

Abstract

本发明提供了一种属性值估计装置,即使在来自多个人种的人是估计对象时,也能够获得高精度估计结果。属性值估计装置根据输入的数据估计数据的属性值,包括:数据获取单元(1),获取其属性值要被估计的数据;离散量估计单元(2),基于数据获取单元(1)获取的数据并根据事先学习的判断准则将属性值估计为离散量;以及第一LSPC(3),基于从离散量估计单元(2)输入的数据,将属性值估计为离散量;以及整合单元(4),整合由离散量估计单元(2)估计的第一离散量估计值和由第一LSPC(3)估计的第二离散量估计值。

Description

属性值估计装置和属性值估计方法
技术领域
本发明涉及属性值估计装置、属性值估计方法、程序和记录介质。
背景技术
根据输入的数据估计数据的属性值的常规属性值估计装置包括:通过提取数据的特征,然后将由此提取的特征与装置事先已学习过的训练样本的特征相比较,来估计输入数据的属性值。在这种装置中,可以将估计结果作为离散量(专利文献1)或作为连续量(专利文献2)来处理。
现有技术文献
专利文献
专利文献1:JP2007-58828A
专利文献2:JP2005-148880A
发明内容
发明要解决的技术问题
在由上述装置估计例如年龄等面部属性值时,当来自例如日本人等特定人种的人是估计对象时,装置能够获得高精度的估计结果。然而,当估计对象是来自包括多种面部特征的多个人种的人的面部图像时,训练样本可能产生偏差,从而难以实现与估计对象是来自特定人种的人时所实现的精度一样的精度水平。
考虑到上述情况,本发明的目的是提供属性值估计装置、属性值估计方法、程序和记录介质,即使在来自多个人种的人是估计对象时,利用本发明也能够获得高精度估计结果。
解决问题的手段
为实现上述目的,本发明提供一种属性值估计装置,用于根据输入的数据估计所述数据的属性值,所述属性值估计装置包括:
数据获取单元,所述数据获取单元获取其属性值要被估计的数据;
从离散量估计单元和连续量估计单元中选择的至少一个估计单元,所述离散量估计单元将所述属性值估计为离散量,以及所述连续量估计单元将所述属性值估计为连续量,所述估计单元基于所述数据获取单元获取的所述数据并根据事先学习的判断准则估计所述属性值;以及
LSPC(最小二乘概率分类器),所述最小二乘概率分类器基于从所述估计单元输入的数据,将所述属性值估计为离散量;以及
整合单元,所述整合单元整合由所述估计单元估计的估计值和由所述最小二乘概率分类器估计的离散量估计值。
本发明还提供一种属性值估计方法,用于根据输入的数据估计所述数据的属性值,所述属性值估计方法包括:
数据获取步骤,在所述数据获取步骤中,获取其属性值要被估计的数据;
估计步骤,在所述估计步骤中,基于在所述数据获取步骤中获取的所述数据并根据事先学习的判断准则,将所述属性值估计为离散量和连续量中的至少一个;以及
离散量估计步骤,在所述离散量估计步骤中,基于在所述估计步骤中处理的数据,将所述属性值估计为离散量;以及
整合步骤,在所述整合步骤中,整合在所述估计步骤中估计的估计值和在所述离散量估计步骤中估计的离散量估计值,
其中在所述离散量估计步骤中使用LSPC。
本发明还提供一种程序,使计算机执行根据本发明的属性值估计方法。
本发明还提供一种记录介质,其上记录有根据本发明的程序。
发明效果
根据本发明,即使当来自多个人种的人是估计对象时也能够获取高精度估计结果。
附图说明
图1是示出了本发明的属性值估计装置的示例(实施例1)的框图。
图2是示出了本发明的属性值估计装置的另一示例(实施例2)的框图。
图3是示出了本发明的属性值估计装置的再一示例(实施例3)的框图。
图4是示出了本发明的属性值估计装置的又一示例(实施例4)的框图。
图5是示出了本发明的属性值估计装置的另一示例(实施例5)的框图。
图6是示出了本发明的属性值估计装置的另一示例(实施例6)的框图。
图7A和7B分别是示出了年龄与估计误差的标准偏差之间关系的图。
图8示出了整合前和整合后的分数矢量分量的分布的图。
具体实施方式
本发明的属性值估计装置优选地配置为,使得属性值估计装置还包括:记分单元,对估计单元估计的估计值进行记分;以及离散量记分单元,对LSPC估计的离散量估计值进行记分,其中整合单元将记分单元获得的第一分数值与离散量记分单元获得的第二分数值整合。类似地,本发明的属性值估计方法优选地配置为,使得属性值估计方法还包括:记分步骤,对在估计步骤中估计的估计值进行记分;以及离散量记分步骤,对在离散量估计步骤中由LSPC估计的离散量估计值进行记分,其中在整合步骤中将在记分步骤中获得的第一分数值与在离散量记分步骤中获得的第二分数值整合。
本发明的属性值估计装置优选地配置为,使得整合单元将估计值、离散量估计值和分数值与分配给估计值、离散量估计值和分数值中至少一个的权重进行整合。类似地,本发明的属性值估计方法优选地配置为,使得在整合步骤中将估计值、离散量估计值和分数值与分配给估计值、离散量估计值和分数值中至少一个的权重进行整合。
根据本发明的属性值估计装置和属性值估计方法优选地配置为,使得LSPC事先学习判断准则,并在学习判断准则时,仅在输入特征量的类别与训练样本所属的正确类别相同时,LSPC才计算核函数。利用这种配置,例如能够进一步加快学习时的计算速度。
根据本发明的属性值估计装置和属性值估计方法优选地配置为,使得LSPC事先学习判断准则,并在学习判断准则时,将核中心放置在训练样本的数目最小的类别中。利用这种配置,例如能够进一步加快学习时的计算速度。
本发明的属性值估计装置优选地配置为,使得从离散量估计单元和连续量估计单元中选择的至少一个估计单元包括神经网络,由神经网络执行数据获取单元获取的数据的降维,并基于降维的数据估计属性值,最小二乘概率分类器基于降维的数据将属性值估计为离散量。类似地,本发明的属性值估计方法优选地配置为,使得在估计步骤中,使用神经网络估计离散量和连续量中的至少一个,由神经网络执行在数据获取步骤中获取的数据的降维,并基于降维的数据来估计属性值,并且在离散量估计步骤中,LSPC基于降维的数据将属性值估计为离散量。
根据本发明的属性值估计装置和属性值估计方法优选地配置为,使得数据获取单元获取的数据和在数据获取步骤中获取的数据是面部图像数据,并且属性值是面部属性值。
根据本发明的属性值估计装置和属性值估计方法优选地配置为,使得面部属性值是从包括年龄组、年龄、性别和人种的组中选择的至少一个属性值。
下面,参照示意性示例描述根据本发明的属性值估计装置、属性值估计方法、程序和记录介质。然而注意,本发明绝不限于下面的示例。在下述图1到6中,相同部件具有相同附图标记。
(实施例1)
图1示出了本实施例的属性值估计装置的框图。本实施例的属性值估计装置具有离散量估计单元作为估计单元,并可以用于估计例如人种或性别等属性值。如图1所示,本实施例的属性值估计装置包括数据获取单元1、离散量估计单元2、第一LSPC3和整合单元4作为主要部件。数据获取单元1的示例包括图像获取单元,例如CCD(电荷耦合器件)摄像机、CMOS(互补金属氧化物半导体)摄像机和图像扫描仪。离散量估计单元2存储事先学习的判断准则。离散量估计单元2、第一LSPC3和整合单元4中每一个均可以是任意专用硬件(例如,中央处理单元(CPU)等),或者可以通过例如软件处理在计算机上实现。
离散量估计单元2从输入数据中提取用于属性值估计的特征量。使用从输入数据中提取的特征量以及判断准则,离散量估计单元2将输入数据的属性值估计为离散量。例如在属性值是人种的情况下,离散量可以是例如白色人种、黑色人种、黄色人种、蒙古人种或混合人种(两种人种或多人种)。在属性值是性别的情况下,例如离散量可以是男性或女性。
离散量估计单元2可以使用常规已知方法(例如,包括边缘提取和二值化)从输入数据中提取特征量。
离散量估计单元2可以使用常规已知方法,基于判断准则根据特征量,将属性值估计为离散量。常规已知方法的示例包括:使用神经网络、高斯混合模型或支持矢量机;线性鉴别分析;对数回归分析;以及k最近邻域分类方法。
第一LSPC3基于作为新特征量的、从离散量估计单元2输入的数据,将属性值估计为离散量。第一LSPC3使用平方损失在每个类别中求解后验概率模型。因此,第一LSPC3的最独特的特征在于,第一LSPC3能够实现超高速学习。此外,第一LSPC3以密度比的形式对后验概率建模,从而第一LSPC3也具有如下特征:能够对抗各类训练样本中数据个数的不平衡。例如,当来自多个人种的人是估计对象时,难以针对例如年龄组、人种和性别等多种类别均匀地收集训练样本。因此,当估计对象是来自多个人种的人时,第一LSPC3的该特征是有利的。
第一LSPC3以密度比的形式,关于输入特征量(面部特征量)x,估计属性类别y的后验概率分布p(y|x),由下式(1)表示。属性类别的示例包括年龄组类别、性别类别和人种类别。
p ( y | x ) = p ( x , y ) p ( x ) - - - ( 1 )
p(x):训练样本的概率分布
p(y|x):训练样本的联合概率分布
最终,将具有最高后验概率(下式(2)的左侧)的属性类别设定为估计的属性类别。
y ^ = arg min y p ( y | x ) - - - ( 2 )
第一LSPC3使用平方损失来学习后验概率p(y|x)。例如,这允许将学习时间减少到几百分之一,同时保持模式识别精度与常规方法实现的精度相等。
此外,由于以下式(1)表示的密度比的形式估计后验概率,所以估计结果不易受到各个类别中训练样本数据的个数不平衡(例如,特定类别中训练样本数据的个数较少)的影响。
下面,描述后验概率的最小平方拟合。首先,使用如下线性模型对属性类别y的后验概率建模。
q ( y | x ; α ) = Σ l = 1 b α l φ l ( x , y ) - - - ( 3 )
参数
非负的基函数
第一LSPC3学习参数α(以下表达式),使得下面的平方误差J0最小化。
α=(α1,…,αl)T
J 0 ( α ) = 1 2 ∫ Σ y = 1 c ( q ( y | x ; α ) - p ( y | x ) ) 2 p ( x ) dx = 1 2 ∫ Σ y = 1 c ( q ( y | x ; α ) ) 2 p ( x ) dx - ∫ Σ y = 1 c q ( y | x ; α ) p ( x , y ) dx + 1 2 ∫ Σ y = 1 c ( p ( y | x ) ) 2 p ( x ) dx
上述表达式的最末项是常量,因此可以忽略。通过样本均值在上述表达式的前两项中对期望值J近似,得到下式(5)。
J ^ ( α ) = 1 2 α T Hα - h ^ T α - - - ( 5 )
H ^ = 1 n Σ i = 1 n Σ y = 1 c φ ( x i , y ) φ ( x i , y ) T h ^ = 1 n Σ i = 1 n φ ( x i , y i ) - - - ( 5 a )
添加l2正则化项以防止过度拟合,从而产生如下无约束最优化问题。
α ^ = arg min α [ 1 2 α T H ^ α - h ^ T α + λ 2 α T α ] - - - ( 6 )
由下式(7)解析地给出表达式(6)的解。
α ~ = ( H ^ + λ I b ) - 1 h ^ - - - ( 7 )
Ib:b维单位矩阵
根据下式(8)进行参数校正,以使所有参数非负,从而确保后验概率的非负性。
α ^ l = max ( 0 , α l ) , l = 1,2 , . . . , b - - - ( 8 )
最后,执行归一化相关,以使所有类别之和等于1,从而获得后验概率的解。
p ^ ( y | x ) = α T φ ( x , y ) Σ y , = 1 c α T φ ( x , y , ) - - - ( 9 )
备选地,替代表达式(8)或(9)表示的处理,可以执行如下处理来获得后验概率的解。
Z = Σ y , = 1 c max ( 0 , α T φ ( x , y , ) )
当估计属性值的离散量时,离散量估计单元2和第一LSPC3可以各自输出估计结果的离散量估计值伴随随机表示。估计结果的离散量估计值伴随随机表示例如可以如下:在属性值是人种的情况下,离散量估计值可以是例如“估计对象是白色人种的概率是80%,是黑色人种的概率是20%”;并且在属性值是性别的情况下,离散量估计值可以是例如“估计对象是男性的概率是80%,是女性的概率是20%”。利用这种配置,在从估计对象的一部分外貌估计该估计对象是女性,但根据任意其他判断准则该估计对象有可能是男性的情况下(例如,估计对象是具有长发的人),能够输出具有更高精度的估计结果。
整合单元4整合离散量估计单元2估计的第一离散量估计值和第一LSPC3估计的第二离散量估计值。整合单元4输出经整合后得到的属性类别作为估计结果。在本实施例中,由于对第一离散量估计值和第二离散量估计值进行整合,所以不存在任意特定属性类别的估计精度可能较低的风险。
此外,在本实施例中,为了进一步提高第一LSPC3的学习速度,例如可以执行如下至少一个:(1)引入delta核;以及(2)放置核中心。
首先描述引入delta核。当给定如下训练样本时,将每个属性类别y的后验概率模型(表达式(3))指定为由下式表示。
{ ( x i , y i ) } i = 1 l
xi:目标变量(面部特征量)
yi:说明变量(属性类别)
q ( y | x ; α ) = Σ y , = 1 c Σ l = 1 n α i ( y , ) K ( x , x i , y , y i , y , )
c:属性类别的数目
n:学习样本的数目
K:由输入特征量x、类别y、训练样本的相似度和类别y’确定的核函数
参数的数目:cn
获得解析解(上式(7))所需的计算量:O(c3n3)
在学习时,只有当输入特征量x的类别与训练样本(在本实施例中,目标变量(面部特征量))xi所属的正确类别相同时,才引入用于计算核函数的“delta核”。
K’(x,xi,y,yi,y’)=K(x,xiy,y’(10)
δy,y’是下式(11)表示的Kroneckerdelta。
这减少了参数的数目(cn),从而将表达式(5a)中的矩阵变为针对每个属性类别的块对角矩阵。在这种情况下,获得解析解(表达式(7))所需的计算量是O(cn3)。
下面,描述(2)放置核中心。在类别y中,后验概率p(y|x)的值在训练样本数目大的区域中较高,而在训练样本数目小的区域中几乎为0(零)。因此,可以将核中心放置在类别中存在训练样本的位置。
这使表达式(5a)的矩阵的块仍然更小,由此允许进一步减小针对逆矩阵的计算量。
(实施例2)
图2示出了本发明的属性值估计装置的另一配置。如图2所示,除了还包括第一离散量记分单元5和第二离散量记分单元6之外,该属性值估计装置的配置与图1所示的属性值估计装置相同。
参照属性值是人种,并且针对三个类别(即,白色人种、亚洲人种和黑色人种)执行人种估计的示例,更具体地描述根据本实施例的属性值估计装置和属性值估计方法。
第一离散量记分单元5对离散量估计单元2估计的第一离散量估计值进行记分,并输出随机形式的确定性因子(白色人种:p1,亚洲人种:p2,黑色人种:p3),作为第一分数值。
第二离散量记分单元6对第一LSPC6估计的第二离散量估计值进行记分,并输出上述相同形式的确定性因子(白色人种:q1,亚洲人种:q2,黑色人种:q3),作为第二分数值。
整合单元4分别向第一分数值和第二分数值分配在下面将描述的实施例6中确定的权重ω1和ω2,并将由此加权的第一和第二分数值相加。然后,整合单元4输出具有下面分数值R1、R2和R3之中最高分数值的人种,作为估计结果。
白色人种的分数值:R1=ω1·p12·q1
亚洲人种的分数值:R2=ω1·p22·q2
黑色人种的分数值:R3=ω1·p32·q3
(实施例3)
图2示出了本发明的属性值估计装置的再一示例。本实施例的属性值估计装置具有连续量估计单元作为估计单元,并可以用于估计例如年龄组或年龄等属性值。如图3所示,除了包括连续量估计单元7和第二LSPC8来替换离散量估计单元2和第一LSPC3之外,该属性值估计装置的配置与图1所示的属性值估计装置相同。
连续量估计单元7从输入数据中提取用于属性值估计的特征量。使用从输入数据提取中的特征量以及判断准则,连续量估计单元7估计输入数据的属性值为连续量。连续量估计单元7可以使用常规已知方法(示例包括边缘提取和二值化)从输入数据提取特征量。
连续量估计单元7可以使用常规已知方法根据判断准则从特征量估计属性值,常规已知方法的示例包括:使用神经网络;多回归分析;支持矢量回归;核正则化加权最小二乘;以及k最近邻域分类方法。
第二LSPC8按照与上述第一LSPC3的方式相同的方式,基于作为新特征量的、从连续量估计单元7输入的数据,将属性值估计为离散量。
整合单元4整合连续量估计单元7估计的连续量估计值和第二LSPC8估计的第三离散量估计值。整合单元4输出整合后得到的属性类别(例如,年龄组、年龄等)作为估计结果。
本实施例的属性值估计装置可以配置为例如:连续量估计单元7包括神经网络;第二LSPC8基于作为新面部特征量的、已由神经网络降维的数据(例如,中间100个维度的数据),输出针对各个年龄组类别的确定性因子;以及将具有最高确定性因子的年龄组设定为估计的年龄组。在实施例1和2中的离散量估计单元2如在本示例中一样包括神经网络的情况下,可以如在本示例中一样,神经网络对数据进行降维。
(实施例4)
图4示出了本发明的属性值估计装置的又一示例。本实施例的属性值估计装置具有离散量估计单元和连续量估计单元两者作为估计单元,并可以用于估计例如年龄组或年龄等属性值。如图4所示,除了还包括连续量估计单元7和第二LSPC8之外,该属性值估计装置的配置与图1所示的属性值估计装置相同。离散量估计单元2和第一LSPC3如实施例1中描述的一样。连续量估计单元7和第二LSPC8如实施例3中描述的一样。
整合单元4整合离散量估计单元2估计的第一离散量估计值、第一LSPC3估计的第二离散量估计值、连续量估计单元7估计的连续量估计值和第二LSPC8估计的第三离散量估计值。整合单元4输出整合后得到的属性类别(例如,年龄组、年龄等)作为估计结果。
(实施例5)
图5示出了本发明的属性值估计装置的另一示例。除了还包括第一离散量记分单元5、第二离散量记分单元6、连续量记分单元9和第三离散量记分单元10之外,该属性值估计装置的配置与图4所示的属性值估计装置相同。第一离散量记分单元5和第二离散量记分单元6如实施例2中描述的一样。
参照其中连续量估计单元7包括神经网络的示例,描述本实施例中的记分。在该示例中,连续量估计单元7和第二LSPC8向从1到70(以1年为间隔)的各个年龄分配分数,由此以矢量形式输出分数。
首先,描述(1)对来自神经网络的输出的记分。本示例中使用的神经网络已通过回归模型学习进行了训练,从而可以按照1年间隔执行年龄估计。因此,其输出是单个标量y(年龄)的形式。按照如下方式对来自神经网络的输出进行记分,并考虑到如下事实:人类年龄感知特性是非均匀的(KazuyaUEKI,MasashiSUGIYAMA,YasuyukiIHARA,“AgeEstimationConsideringHumanPerceptionCharacteristicbyWeightedRegression”,Proceedingsofthe15thSymposiumonSensingviaImageInformation(SSII09),no.IS4-23(CD-ROM),Yokohama,2009,6.10-12)。
在该示例中,将由多个估计者对相同对象估计的感知年龄(表观年龄)的均值设定为“真实年龄”。年龄感知中相对于真实年龄y的估计误差的标准偏差表示为ωage(y)。ωage(y)是非均匀的,如图7A和7B所示。更具体地,针对年轻对象的年龄感知误差较小,而针对年纪大的对象的年龄感知误差较大。图7A示出了根据各个年龄的女性对象的面部图像估计她们的年龄时误差的标准偏差,图7B示出了根据各个年龄的男性对象的面部图像估计他们的年龄时误差的标准偏差。
使用该ωage(·)(“·”是下式中划线的部分),以如下方式对来自神经网络的输出年龄(下式中划线的部分)进行记分。
输出分数: f 1 = { f 1 ( z ) } z = 1 70 - - - ( 12 )
f1的各分量: f 1 ( z ) = 1 2 π ω age ( y ‾ ~ ) exp ( - ( z - y ‾ ~ ) 2 2 ω age ( y ‾ ~ ) 2 )
(z=1,…,70)
此时,如图8的左上图所示,分数f1的分量分布是正态分布形式,展示出对于年纪较小对象的较小离散,而对于年纪较大对象的较大离散,并且在输出年龄等于上式中的划线部分时形成峰值。即,执行记分,以反映如下事实:针对年纪较小对象估计的年龄会是对象的真实年龄附近的年龄的可能性低,而针对年纪较大对象估计的年龄会是对象的真实年龄附近的年龄的可能性高。
接着,描述(2)对来自第二LSPC8的输出的记分。第二LSPC8以随机形式输出针对各个年龄组的确定性因子。在本示例中,执行记分,使得来自第二LSPC8的输出的形式与分配给上述神经网络的输出的分数f1的形式相同。
例如,当针对三个类别(即,少年组(0到19岁)、中年组(20到49岁)和老年组(50岁以上)),执行年龄组估计时,假设从第二LSPC8输出的确定性因子如下:少年组:p1,中年组:p2,老年组:p3
此时,根据下式(13)临时向每个年龄z(z=1,...70)分配分数。
f ^ 2 ( z ) = p i - - - ( 13 )
此后,使用下式对分数进行归一化。
f 2 ( z ) = f ^ 2 ( z ) Σ z = 1 70 f ^ 2 ( z ) - - - ( 14 )
接着,将下式设定为来自第二LSPC9的输出分数。
f 2 = { f 2 ( z ) } z = 1 70
图8的右上图示出了来自第二LSPC8的输出分数矢量的分量分布的图像。
在本实施例中,整合单元4整合第一离散量记分单元5获得的第一分数值、第二离散量记分单元6获得的第二分数值、连续量记分单元9获得的第三分数值和第三离散量记分单元10获得的第四分数值。整合单元4输出整合后得到的年龄作为估计结果。
(实施例6)
使用图5所示的属性值估计装置来实施本实施例。除了在向第三分数值和第四分数值分配权重的情况下整合单元执行上述整合之外,本实施例与实施例5相同。
在本实施例中,例如按照如下方式执行输出分数的加权。关于每个年龄z(1≤z≤70,1年间隔),分别向连续量记分单元9和第三离散量记分单元10获得的分数值分配权重ω1和ω2,并将由此加权的分数彼此相加。下面描述用于确定最优权重的方法。
F=ω1·f12·f2(15)
F = { F ( z ) } z = 1 70 F ( z ) = ω 1 · f 1 ( z ) + ω 2 · f 2 ( z )
于是,将满足z*=argmaxz{F(z)}的年龄z*所属的年龄组设定为整合单元4的输出年龄组。图8的下图示出了整合后分数矢量分量的分布图像。
下面,描述用于搜索权重的方法。使用验证数据(在模型学习中不使用的数据),逐个地全面搜索最优权重ω1和ω2。更具体地,在ω1和ω2的数值幅度:0到1,搜索间隔:0.01的这些条件下,使用验证数据执行整合单元4的评估。采用使用验证数据进行评估时具有最高分数的分数(每个类别中识别率的均值)作为最优权重。
(实施例7)
图6示出了本发明的属性值估计装置的又一示例。如图6所示,该属性值估计装置包括数据获取单元1、人种估计单元11、白色人种年龄组估计单元21、亚洲人种年龄组估计单元22、黑色人种年龄组估计单元23、和整合单元4。人种估计单元11包括图2所示属性值估计装置的离散量估计单元2、第一LSPC3、第一离散量记分单元5和第二离散量记分单元6。白色人种年龄组估计单元21、亚洲人种年龄组估计单元22和黑色人种年龄组估计单元23各自包括图5所示属性值估计装置的离散量估计单元2、第一LSPC3、第一离散量记分单元5、第二离散量记分单元6、连续量估计单元7、第二LSPC8、连续量记分单元9和第三离散量记分单元10。
参照其中人种估计单元11执行三个类别(即,白色人种、亚洲人种和黑色人种)的人种估计的示例,更详细地描述根据本实施例的属性值估计装置和属性值估计方法。
人种估计单元11输出随机形式的确定性因子(白色人种:p1,亚洲人种:p2,黑色人种:p3),作为分数值。
白色人种年龄组估计单元21、亚洲人种年龄组估计单元22和黑色人种年龄组估计单元23分别输出下式(16)到(18),作为每个年龄z(1≤z≤70,1年间隔)上的分数值。
白色人种的分数值: W = { W ( z ) } z = 1 70 - - - ( 16 )
亚洲人种的分数值: A = { A ( z ) } z = 1 70 - - - ( 17 )
黑色人种的分数值: B = { B ( z ) } z = 1 70 - - - ( 18 )
使用从人种估计单元11输出的(随机形式的)确定性因子,整合单元4如下所述针对每个年龄z(1≤z≤70,1年间隔)整合分数值。整合单元4输出满足z*=argmaxz{G(z)}的年龄z*所属的年龄组,作为包括人种估计在内的年龄组估计结果。
G=p1·W+p2·A+p3·B
G = { G ( z ) } z = 1 70 G ( z ) = p 1 · W ( z ) + p 2 · A ( z ) + p 3 · B ( z )
虽然参照示意性实施例描述了本发明,但是本发明绝不限于此。在不背离本发明范围的情况下可以在本发明的配置和细节上进行本领域技术人员显而易见的多种改变和修改。
本申请要求2010年12月8日提交的日本专利申请No.2010-273829的优先权。
附图标记说明
1数据获取单元
2离散量估计单元
3第一LSPC(最小二乘概率分类器)
4整合单元
5第一离散量记分单元
6第二离散量记分单元
7连续量估计单元
8第二LSPC(最小二乘概率分类器)
9连续量记分单元
10第三离散量记分单元
11人种估计单元
21白色人种年龄组估计单元
22亚洲人种年龄组估计单元
23黑色人种年龄组估计单元

Claims (16)

1.一种属性值估计装置,用于根据输入的数据估计所述数据的属性值,所述属性值估计装置包括:
数据获取单元,所述数据获取单元获取其属性值要被估计的数据;
从离散量估计单元和连续量估计单元中选择的至少一个估计单元,所述离散量估计单元将所述属性值估计为离散量,所述连续量估计单元将所述属性值估计为连续量,所述估计单元基于所述数据获取单元获取的所述数据并根据事先学习的判断准则来估计所述属性值;以及
最小二乘概率分类器,所述最小二乘概率分类器基于从所述估计单元输入的数据,将所述属性值估计为离散量;以及
整合单元,所述整合单元整合由所述估计单元估计的估计值和由所述最小二乘概率分类器估计的离散量估计值。
2.根据权利要求1所述的属性值估计装置,还包括:
记分单元,所述记分单元对所述估计单元估计的估计值进行记分;以及
离散量记分单元,所述离散量记分单元对所述最小二乘概率分类器估计的所述离散量估计值进行记分,
其中所述整合单元整合由所述记分单元获得的第一分数值和由所述离散量记分单元获得的第二分数值。
3.根据权利要求2所述的属性值估计装置,其中所述整合单元整合所述估计值、所述离散量估计值和所述分数值,所述估计值、所述离散量估计值和所述分数值中的至少一个被分配权重。
4.根据权利要求1所述的属性值估计装置,其中所述最小二乘概率分类器事先学习所述判断准则,并在学习所述判断准则时,仅当输入特征量的类别与训练样本所属的正确类别相同时所述最小二乘概率分类器才计算核函数。
5.根据权利要求4所述的属性值估计装置,其中所述最小二乘概率分类器事先学习所述判断准则,并在学习所述判断准则时,将核中心放置在训练样本数目最小的类别中。
6.根据权利要求1所述的属性值估计装置,其中
从所述离散量估计单元和所述连续量估计单元中选择的至少一个估计单元包括神经网络,由所述神经网络执行由所述数据获取单元获取的数据的降维,并且基于降维的数据估计所述属性值,以及
所述最小二乘概率分类器基于所述降维的数据,将所述属性值估计为离散量。
7.根据权利要求1所述的属性值估计装置,其中由所述数据获取单元获取的所述数据是面部图像数据,并且所述属性值是面部属性值。
8.根据权利要求7所述的属性值估计装置,其中所述面部属性值是从包括年龄组、年龄、性别和人种的组中选择的至少一个属性值。
9.一种属性值估计方法,用于根据输入的数据估计所述数据的属性值,所述属性值估计方法包括:
数据获取步骤,在所述数据获取步骤中,获取其属性值要被估计的数据;
估计步骤,在所述估计步骤中,基于在所述数据获取步骤中获取的所述数据并根据事先学习的判断准则,将所述属性值估计为离散量和连续量中的至少一个;
离散量估计步骤,在所述离散量估计步骤中,基于在所述估计步骤中处理的数据,将所述属性值估计为离散量;以及
整合步骤,在所述整合步骤中,整合在所述估计步骤中估计的估计值和在所述离散量估计步骤中估计的离散量估计值,
其中在所述离散量估计步骤中使用最小二乘概率分类器。
10.根据权利要求9所述的属性值估计方法,还包括:
记分步骤,在所述记分步骤中,对在所述估计步骤中估计的估计值进行记分;以及
离散量记分步骤,在所述离散量记分步骤中,对在所述离散量估计步骤中由所述最小二乘概率分类器估计的所述离散量估计值进行记分,
其中在所述整合步骤中将在所述记分步骤中获得的第一分数值与在所述离散量记分步骤中获得的第二分数值整合。
11.根据权利要求10所述的属性值估计方法,其中在所述整合步骤中,整合所述估计值、所述离散量估计值和所述分数值,所述估计值、所述离散量估计值和所述分数值中的至少一个被分配权重。
12.根据权利要求9所述的属性值估计方法,其中所述最小二乘概率分类器事先学习所述判断准则,并在学习所述判断准则时,仅当输入特征量的类别与训练样本所属的正确类别相同时所述最小二乘概率分类器才计算核函数。
13.根据权利要求12中所述的属性值估计方法,其中所述最小二乘概率分类器事先学习所述判断准则,并在学习所述判断准则时,将核中心放置在训练样本数目最小的类别中。
14.根据权利要求9所述的属性值估计方法,其中
在所述估计步骤中,使用神经网络估计所述离散量和所述连续量中的至少一个,由所述神经网络执行在所述数据获取步骤中获取的所述数据的降维,并且基于降维的数据估计所述属性值,以及
在所述离散量估计步骤中,所述最小二乘概率分类器基于所述降维的数据将所述属性值估计为离散量。
15.根据权利要求9所述的属性值估计方法,其中在所述数据获取步骤中获取的所述数据是面部图像数据,并且所述属性值是面部属性值。
16.根据权利要求15所述的属性值估计方法,其中所述面部属性值是从包括年龄组、年龄、性别和人种的组中选择的至少一个属性值。
CN201180059057.3A 2010-12-08 2011-11-17 属性值估计装置和属性值估计方法 Expired - Fee Related CN103262118B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010273829 2010-12-08
JP2010-273829 2010-12-08
PCT/JP2011/076516 WO2012077476A1 (ja) 2010-12-08 2011-11-17 属性値推定装置、属性値推定方法、プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
CN103262118A CN103262118A (zh) 2013-08-21
CN103262118B true CN103262118B (zh) 2015-11-25

Family

ID=46206974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180059057.3A Expired - Fee Related CN103262118B (zh) 2010-12-08 2011-11-17 属性值估计装置和属性值估计方法

Country Status (5)

Country Link
US (1) US9336486B2 (zh)
EP (1) EP2650842A1 (zh)
JP (1) JP5633080B2 (zh)
CN (1) CN103262118B (zh)
WO (1) WO2012077476A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9626597B2 (en) 2013-05-09 2017-04-18 Tencent Technology (Shenzhen) Company Limited Systems and methods for facial age identification
CN104143079B (zh) * 2013-05-10 2016-08-17 腾讯科技(深圳)有限公司 人脸属性识别的方法和系统
WO2015008567A1 (ja) * 2013-07-18 2015-01-22 Necソリューションイノベータ株式会社 顔印象度推定方法、装置、及びプログラム
GB2539588A (en) 2014-03-13 2016-12-21 Nielsen Co Us Llc Methods and apparatus to compensate impression data for misattribution and/or non-coverage by a database proprietor
US20160189182A1 (en) 2014-12-31 2016-06-30 The Nielsen Company (Us), Llc Methods and apparatus to correct age misattribution in media impressions
JP6521440B2 (ja) * 2015-05-14 2019-05-29 国立研究開発法人情報通信研究機構 ニューラルネットワーク及びそのためのコンピュータプログラム
US10045082B2 (en) 2015-07-02 2018-08-07 The Nielsen Company (Us), Llc Methods and apparatus to correct errors in audience measurements for media accessed using over-the-top devices
US10380633B2 (en) 2015-07-02 2019-08-13 The Nielsen Company (Us), Llc Methods and apparatus to generate corrected online audience measurement data
CN105404877A (zh) * 2015-12-08 2016-03-16 商汤集团有限公司 基于深度学习和多任务学习的人脸属性预测方法及装置
JP6439729B2 (ja) 2016-03-24 2018-12-19 トヨタ自動車株式会社 睡眠状態推定装置
WO2018173194A1 (ja) * 2017-03-23 2018-09-27 日本電気株式会社 認証装置及び認証方法
CN107145977B (zh) * 2017-04-28 2020-07-31 电子科技大学 一种对在线社交网络用户进行结构化属性推断的方法
CN109598176A (zh) * 2017-09-30 2019-04-09 佳能株式会社 识别装置和识别方法
CN110019790B (zh) * 2017-10-09 2023-08-22 阿里巴巴集团控股有限公司 文本识别、文本监控、数据对象识别、数据处理方法
US11558769B2 (en) * 2018-10-15 2023-01-17 Nec Corporation Estimating apparatus, system, method, and computer-readable medium, and learning apparatus, method, and computer-readable medium
CN110008568A (zh) * 2019-03-29 2019-07-12 中国人民解放军战略支援部队航天工程大学 小样本下装备平均修复时间的非统计估计模型
CN110287942B (zh) * 2019-07-03 2021-09-17 成都旷视金智科技有限公司 年龄估计模型的训练方法、年龄估计方法以及对应的装置
CN112446257A (zh) 2019-09-02 2021-03-05 株式会社Ntt都科摩 基于神经网络的属性识别装置、方法和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000686A (zh) * 2007-01-15 2007-07-18 浙江大学 一种基于主成分分析的颜色调整方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4303092B2 (ja) * 2003-11-12 2009-07-29 株式会社国際電気通信基礎技術研究所 年齢推定装置、年齢推定方法および年齢推定プログラム
JP2007058828A (ja) 2005-08-26 2007-03-08 Toshiba Personal Computer System Kk 映像データにおける不特定多数者の集計処理システム及びプログラム並びに情報記憶媒体
US7856125B2 (en) 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
JP5109564B2 (ja) * 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000686A (zh) * 2007-01-15 2007-07-18 浙江大学 一种基于主成分分析的颜色调整方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Least-Squares Conditional Density Estimation;Sugiyama,M. et al.;《IEICE Trans. on Information and Systems,2010》;20100131;第E93-D卷(第3期);第583-594卷 *
Perceived Age Estimation under Lighting Condition Change by Covariate Shift Adaptation;Ueki,K. et al.;《20th International Conference on Pattern Recognition(ICPR),2010》;20100826;第3400-3403页 *
Superfast-Trainable Multi-Class Probabilistic Classifier by Least-Squares Posterior Fitting;Sugiyama,M.;《IEICE TRANSACTIONS on Information and Systems》;20101001;第E93-D卷(第10期);第2690-2701页 *

Also Published As

Publication number Publication date
JP5633080B2 (ja) 2014-12-03
JPWO2012077476A1 (ja) 2014-05-19
CN103262118A (zh) 2013-08-21
US20130254143A1 (en) 2013-09-26
US9336486B2 (en) 2016-05-10
WO2012077476A1 (ja) 2012-06-14
EP2650842A1 (en) 2013-10-16

Similar Documents

Publication Publication Date Title
CN103262118B (zh) 属性值估计装置和属性值估计方法
CN109213853B (zh) 一种基于cca算法的中文社区问答跨模态检索方法
CN101419671B (zh) 基于模糊支持向量机的人脸性别识别方法
CN108090830B (zh) 一种基于面部画像的信贷风险评级方法和装置
US20100217743A1 (en) Attribute estimation system, age estimation system, gender estimation system, age and gender estimation system and attribute estimation method
CN106022317A (zh) 人脸识别方法及装置
CN105138993A (zh) 建立人脸识别模型的方法及装置
CN113887538B (zh) 模型训练、人脸识别方法、电子设备及存储介质
CN105389583A (zh) 图像分类器的生成方法、图像分类方法和装置
CN108647736A (zh) 一种基于感知损失和匹配注意力机制的图像分类方法
WO2015008567A1 (ja) 顔印象度推定方法、装置、及びプログラム
CN104598888B (zh) 一种人脸性别的识别方法
CN105678261B (zh) 基于有监督图的直推式数据降维方法
CN110689091A (zh) 弱监督细粒度物体分类方法
CN104966075B (zh) 一种基于二维判别特征的人脸识别方法与系统
CN112767386B (zh) 基于主题特征和评分分布的图像美学质量评价方法及系统
CN111539452A (zh) 多任务属性的图像识别方法、装置、电子设备及存储介质
CN104978569A (zh) 一种基于稀疏表示的增量人脸识别方法
CN109409231B (zh) 基于自适应隐马尔可夫的多特征融合手语识别方法
CN113051962B (zh) 基于联合注意力机制孪生Margin-Softmax网络的行人重识别方法
CN111127407B (zh) 一种基于傅里叶变换的风格迁移伪造图像检测装置及方法
Liu et al. Fuzzy c-mean algorithm based on Mahalanobis distances and better initial values
Karungaru et al. Face recognition in colour images using neural networks and genetic algorithms
CN109543512A (zh) 图文摘要的评价方法
US9443443B2 (en) Personalized studying path generating method in serious game

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: JAPAN ELECTRICAL SCHEME INNOVATION CORPORATION

Free format text: FORMER OWNER: NEC SOFT, LTD.

Effective date: 20140821

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20140821

Address after: Tokyo, Japan, Japan

Applicant after: Japan Electrical Scheme Innovation Corporation

Applicant after: Tokyo Inst Tech

Address before: Tokyo, Japan

Applicant before: NEC Soft, Ltd.

Applicant before: Tokyo Inst Tech

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151125

Termination date: 20191117

CF01 Termination of patent right due to non-payment of annual fee