JP6430102B2 - 人物属性推定装置、人物属性推定方法及びプログラム - Google Patents

人物属性推定装置、人物属性推定方法及びプログラム Download PDF

Info

Publication number
JP6430102B2
JP6430102B2 JP2013107167A JP2013107167A JP6430102B2 JP 6430102 B2 JP6430102 B2 JP 6430102B2 JP 2013107167 A JP2013107167 A JP 2013107167A JP 2013107167 A JP2013107167 A JP 2013107167A JP 6430102 B2 JP6430102 B2 JP 6430102B2
Authority
JP
Japan
Prior art keywords
face
image
estimation
person attribute
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013107167A
Other languages
English (en)
Other versions
JP2014229012A (ja
Inventor
一真 山本
一真 山本
増田 誠
誠 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2013107167A priority Critical patent/JP6430102B2/ja
Publication of JP2014229012A publication Critical patent/JP2014229012A/ja
Application granted granted Critical
Publication of JP6430102B2 publication Critical patent/JP6430102B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔画像から性別や年齢等の人物属性を推定する人物属性推定装置、人物属性推定方法及びプログラムに関する。
ショッピングセンター等の店舗へ来店する顧客の性別や年齢等の人物属性を把握することで、来店する客層に応じた販売促進の企画や広告等のマーケティングを行うことができる。人物属性を把握する方法としては、店舗に設置されたカメラ等によって撮像された画像から、画像に写っている人物属性を自動的に推定することで、多くの人物属性の把握を簡便に行うことができる。
例えば、特許文献1には、顔特徴点である目、鼻、口等の部位毎の特徴量から人物属性を推定し、顔の向き、顔器官の形状、照明状態等の顔状態を判定し、判定結果に基づいて人物属性の推定に悪影響が小さくなるような補正を行い、人物属性を行う技術が開示されている。
特許第04888217号
P.Viola and M. Jones, "Rapid Object Detection using a BoostedCascade of Simple Features. " Computer Vision andPattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE ComputerSociety Conference on, Vol.1, pp.511-518, 2001. T.Cootes, G. Edwards and C. Taylor, "Active Appearance Models." Pattern Analysis and Machine Intelligence, IEEETransactions on, Vol.23, No.6, pp.681-685, 2001. Z.Yang et al., "Multi-view face pose classification bytree-structured classifier. " Image Processing, 2005.ICIP 2005. IEEE International Conference on, Vol.2, pp.358-361, 2005. 坂谷達夫,山口修,"顔認識のための射影変換に基づいた3次元正規化法",信学技法PRMU, Vol.105, No.375, pp.49-54, 2005 R.Lienhart and J. Maydt, "An Extended Set of Haar-like Featuresfor Rapid Object Detection", Image Processing. 2002.Proceedings. 2002 International Conference on, Vol.1, pp.900-903, 2002 C.Huang et al., "Vector Boosting for Rotation Invariant Multi-ViewFace Detection", Computer Vision, 2005. ICCV 2005.Tenth IEEE International Conference on, Vol.1, pp.446-453, 2005.
このような人物属性の把握において、監視カメラ等の既設のカメラを利用することで、カメラの設置コストを削減することがきる。しかし、監視カメラ等の画像を利用して人物属性を推定する場合、必ずしも撮像された画像中の顔が正面を向いているわけではないため、顔が正面以外を向いている画像について人物属性を正しく推定できるようにする必要がある。
顔が正面以外を向いている場合、顔の各部位の見え方が変わるため、人物属性を推定するために利用している顔特徴点の特徴量も変わる。このため、特許文献1に開示された技術では、顔向きの違いによる見え方の違いに対応できないという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、様々な顔向きの顔画像から人物属性を推定することが可能な、新規かつ改良された人物属性推定装置、人物属性推定方法及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、顔画像の顔向きを正規化する顔向き正規化処理部と、正規化した顔向き正規化画像に基づいて、顔向き正規化画像を区分した領域ごとに人物属性をそれぞれ推定する部分属性推定処理部と、部分属性推定部による顔向き正規化画像の各領域に対する人物属性推定結果と、顔向きに応じた、前記顔画像の撮影時のオクルージョンによる影響から当該顔向き正規化画像に発生するノイズが多い領域の重みが小さくなり当該ノイズが少ない領域の重みが大きくなるような重み付けと、に基づいて顔画像の人物属性を推定するための人物属性評価値を算出する推定結果統合処理部と、を備える、人物属性推定装置が提供される。
人物属性推定装置は、顔画像の特徴点に基づいて顔向きを推定する顔向き推定処理部をさらに備えてもよい。
人物属性推定装置は、人物属性評価値に基づいて顔画像の人物属性を推定する人物属性推定部をさらに備えてもよい。
顔向き正規化処理部は、前記顔画像を、3次元形状モデルを用いて正規化してもよい。
推定結果統合処理部は、正規化前の顔向きにより前記顔向き正規化画像のノイズが大きくなる領域の重みが小さくなるように重み付けをしてもよい。
推定結果統合処理部は、同様な顔向きの複数の画像から学習した結果を用いて、部分属性の推定結果を顔向きに応じて重み付けで統合してもよい。
部分属性推定処理部は、顔画像を左右または上下の少なくともいずれか一方の方向に複数の領域に分けて領域ごとに人物属性を推定してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、顔画像の顔向きを正規化するステップと、正規化した顔向き正規化画像に基づいて、顔向き正規化画像を区分した領域ごとに人物属性をそれぞれ推定するステップと、正規化するステップによる顔向き正規化画像の各領域に対する人物属性推定結果と、顔向きに応じた、前記顔画像の撮影時のオクルージョンによる影響から当該顔向き正規化画像に発生するノイズが多い領域の重みが小さくなり当該ノイズが少ない領域の重みが大きくなるような重み付けと、に基づいて顔画像の人物属性を推定するための人物属性評価値を算出するステップと、を含む、人物属性推定方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、顔画像の顔向きを正規化する機能と、正規化した顔向き正規化画像に基づいて、顔向き正規化画像を区分した領域ごとに人物属性をそれぞれ推定する機能と、正規化する機能による顔向き正規化画像の各領域に対する人物属性推定結果と、顔向きに応じた、前記顔画像の撮影時のオクルージョンによる影響から当該顔向き正規化画像に発生するノイズが多い領域の重みが小さくなり当該ノイズが少ない領域の重みが大きくなるような重み付けと、に基づいて顔画像の人物属性を推定するための人物属性評価値を算出する機能と、をコンピュータに実現させるためのプログラムが提供される。
以上説明したように本発明によれば、様々な顔向きの顔画像から人物属性を推定することができる。
本発明の一実施形態に係る人物属性推定装置を示すブロック図である。 同実施形態に係る人物属性推定処理を示すフローチャートである。 同実施形態における一処理例に係る顔検出処理の処理結果を示す説明図である。 同処理例に係る顔特徴点抽出処理の処理結果を示す説明図である。 同処理例に係る顔向き正規化処理の処理結果を示す説明図である。 同処理例に係る顔向き正規化画像から抽出したHaar−like特徴の一例を示す説明図である。 位置正規化画像から抽出したHaar−like特徴の一例を示す説明図である。 顔の領域を左、中央、右に3分割した例を示す説明図である。 図8の各領域における属性推定結果を示す表である。 同実施形態に係る各領域の人物属性の推定結果を統合する際の重み付けの例を示す表である。 図9の各領域における人物属性の推定結果を統合した結果を示す表である。 ある顔向きにおける各領域の人物属性推定結果の例を示す表である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.機能構成>
まず、図1を参照して、本発明の一実施形態に係る人物属性推定装置の概略構成について説明する。図1は、本発明の一実施形態に係る人物属性推定装置100を示すブロック図である。人物属性推定装置100は、例えばカメラ等により撮像された人物の顔が含まれる画像から、画像中の人物の性別や年齢等の属性を推定する装置である。人物属性推定装置100は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備える情報処理装置である。また、人物属性推定装置100は、例えばカメラ等と一体となった装置であってもよい。さらに、人物属性推定装置100は、後述する人物属性推定装置100の機能を有するプログラムであっても実現できる。
図1を参照すると、人物属性推定装置100は、例えば記憶部110と、入力部120と、顔検出部130と、顔特徴点抽出処理部140と、顔向き推定処理部150と、顔向き正規化処理部160と、部分属性推定処理部170と、推定結果統合処理部180と、人物属性推定部190とを備える。
記憶部110は、例えばカメラ等により撮像された人物の顔が含まれる画像を記憶している。画像は、例えばカメラ等により撮像された人物や風景等の画像である。また、記憶部110は、後述するように、推定結果統合処理部180が各領域の人物属性の推定結果を統合する際に用いる、顔向き毎の各領域における重み付けの情報を記憶している。
入力部120は、例えばカメラ等により撮像された人物の顔が含まれる画像を、人物属性推定装置100に接続された外部装置から取得する。また、入力部120は、各領域の人物属性の推定結果を統合する際に用いる、顔向き毎の各領域における重み付けの情報を人物属性推定装置100に接続された外部装置から取得する。外部装置は、例えば人物属性推定装置100に直接またはネットワークを介して接続されたカメラ、USB(Universal Sirial Bus)メモリやHDD(Hard Disc Drive)等の記憶媒体、光ディスク等に記録媒体に記憶された情報を読み取るデバイス等である。本実施形態に係る人物属性推定装置100では、記憶部110に記憶された画像または入力部120が取得した画像の少なくともいずれか一方の画像から、人物属性の推定を行う。
顔検出処理部130は、画像中の人物の顔を含む領域(以下、「顔領域」とする。)を検出する。顔検出部130により処理される画像は、例えば記憶部110または入力部120から取得される。顔検出処理部130は、画像中から顔領域を抜き出した顔画像を生成する。
顔特徴点抽出処理部140は、例えば顔検出部130で生成された顔画像から、顔の特徴を表す顔特徴点を抽出する。顔特徴点としては、顔のパーツである目、鼻、口等がある。顔特徴点抽出処理部140で抽出された顔特徴点は、顔向き推定処理部150及び顔向き正規化処理部160に出力される。
顔向き推定処理部150は、顔特徴点抽出処理部140で抽出された顔特徴点及び顔画像から、顔向きを推定する。顔向きは、例えば正面を向いた顔向きを基準として、画像中の顔の向きが基準から左右方向または上下方向の少なくとも一方向にどの程度傾いているかを示す角度である。例えば、画像中の顔の向きが正面を向いたときよりも、右方向に30°傾いている場合、顔向きは右30°向きとなる。顔向き推定処理部150は、推定した顔向きを推定結果統合処理部180に出力する。
顔向き正規化処理部160は、顔特徴点及び顔画像から、顔画像の顔向きを正規化した顔向き正規化画像を生成する。顔画像の正規化とは、例えば正面を向いた顔向きを基準として、顔が正面以外を向いている顔画像を、基準となる正面を向いた顔画像になるように変換することである。顔向き正規化処理部160は、生成した顔向き正規化画像を部分属性推定処理部170に出力する。
部分属性推定処理部170は、顔向き正規化処理部160により生成された顔向き正規化画像を複数の領域に区分し、区分された顔向き正規化画像の各領域について性別や年齢等の人物属性を推定する。部分属性推定処理部170は、各領域の人物属性の推定結果を推定結果統合処理部180に出力する。
推定結果統合処理部180は、顔向き推定処理部150で推定された顔向きと、部分属性推定処理部170で推定された各領域の人物属性の推定結果と、顔向きに応じた各領域に対する重み付けとに基づいて人物属性評価値を算出する。人物属性評価値は、顔画像の人物の人物属性を推定するために用いられる評価値である。重み付けは、後述するように、例えば顔向きに応じてノイズが多い領域の重み付けが小さくなり、ノイズが少ない領域の重みが大きくなるように、各領域に設定される値である。重み付けには、記憶部110に記憶された値、または入力部120が取得する値の少なくとも一方の値が使用される。推定結果統合処理部180は、算出した人物属性評価値を人物属性推定部190に出力する。
人物属性推定部190は、推定結果統合処理部180で算出される人物属性評価値に基づいて、顔画像の人物の人物属性を推定する。
<2.処理フロー>
次に、図1、2を参照して、本発明の一実施形態に係る人物属性推定装置100の人物属性推定処理について説明する。図2は、同実施形態に係る人物属性推定処理の概要を示すフローチャートである。
まず、顔検出部130は、記憶部110に記憶された画像または入力部120が取得した画像から、顔領域を抽出し、画像から顔領域を抜き出した顔画像を生成する顔検出処理を実行する(S100)。
次いで、顔特徴点抽出処理部140は、顔検出部130にて生成された顔画像から、例えば顔のパーツである目、鼻、口の端部や中央部等の顔特徴点を抽出する(S104)。
さらに、顔向き推定処理部150は、顔検出部130にて生成された顔画像及び顔特徴点抽出処理部140にて抽出された顔特徴点から、顔画像の顔向きを推定する顔向き推定処理を実行する(S108)。
その後、顔向き正規化処理部160は、顔検出部130にて生成された顔画像及び顔特徴点抽出処理部140にて抽出された顔特徴点から、顔画像の顔向きを正規化した顔向き正規化画像を生成する顔向き正規化処理を実行する(S112)。
次いで、部分属性推定処理部170は、顔向き正規化処理部160にて生成される顔向き正規化画像を複数の領域に区分し、区分された領域について人物属性の推定をする部分属性推定処理を実行する(S116)。
さらに、推定結果統合処理部180は、顔向き推定処理部150にて推定された顔向きと、部分属性推定処理部170にて推定された各領域の人物属性の推定結果と、顔向きに応じた各領域に対する重み付けと、に基づいて人物属性評価値を算出する推定結果統合処理を実行する(S120)。推定結果統合処理にて用いられる重み付けは、例えば顔向きに応じてノイズが多い領域の重み付けが小さくなり、ノイズが少ない領域の重みが大きくなるように、設定される。また、重み付けは、後述するように、重回帰を利用した学習によって得られる値であってもよい。
その後、人物属性推定部190は、推定結果統合処理部180にて算出される人物属性評価値に基づいて、顔画像の人物の人物属性を推定する人物推定処理をする(S124)。
以上、本実施形態に係る人物属性推定処理の概要について説明した。本実施形態に係る人物推定処理では、画像から得られる顔画像を3次元正規化法により正規化処理を行う。これにより、例えば様々な顔向きの顔画像を正面向きの顔画像に変換することができ、顔向きによらず顔の各部位の見え方が変わらない顔向き正規化画像を生成することができる。
また、本実施形態に係る人物属性推定処理では、顔向き正規化画像を複数の領域に分割し、各領域について人物属性を推定する。次に、顔向きに応じて各領域に重み付けをして統合し、最終的な顔画像の人物属性を推定する。これにより、ノイズが多く推定精度の低い領域の影響が小さくなり、ノイズが少なく推定精度の高い領域の影響が大きくなるため、人物属性の推定精度を向上させることができる。
<3.処理例>
次に、図3から図11を参照して、本実施形態に係る人物属性推定装置100により、人物属性として性別を推定する一処理例について説明する。
[3−1.顔検出処理(ステップS100)]
まず、図2のステップS100における顔検出処理について詳細な説明をする。顔検出処理は、画像中の人物の顔のある領域を検出し、画像中から顔領域を抜き出した顔画像を生成する処理である。本処理例に係る顔検出処理は、例えば非特許文献1に開示されているように、AdaBoostベースの識別器をカスケード状に並べて効率よく検出する方法等を用いることができる。
図3は、本処理例に係る顔検出処理の処理結果を示す説明図である。図3に図示した例では、顔検出処理によって抽出された画像10内の顔領域20を矩形で示す。顔領域20は、例えば顔特徴点である目、鼻、口が少なくとも含まれるように抽出される。また画像10からこの顔領域20を抜き出した画像が、顔画像となる。
[3−2.顔特徴点抽出処理(ステップS104)]
次に、図2のステップS104における顔特徴点抽出処理について詳細な説明をする。顔抽出点処理は、顔検出部130により生成された顔画像から、顔のパーツである目、鼻、口等の顔特徴点を抽出する処理である。本処理例に係る顔特徴点抽出処理は、例えば非特許文献2に開示されているように、AAM(Active Appearance models)を用いて抽出する方法等を用いることができる。
図4は、同実施形態に係る顔特徴点抽出処理の処理結果を示す説明図である。図4に図示した例では、顔特徴点抽出処理により、顔領域10から顔特徴点P1〜8が抽出されている。本処理例では、顔特徴点として、両目の目頭P1、両目の中心P2、両目の目尻P3、鼻P4、口の上端P5、口の下端P6、口の左端P7、口の右端P8が抽出される。
[3−3.顔向き推定処理(ステップS108)]
次に、図2のステップS108における顔向き推定処理について詳細な説明をする。顔向き推定処理は、例えば非特許文献3に開示されているような、顔特徴点抽出処理により抽出される特徴点の情報からTSPC(tree−structured Pose classification)法を用いて行うことができる。TSPC法は、例えば顔画像中の両目の中心、及び口の中心の位置から、ツリー構造を用いた分類を行うことで顔向きが算出される。
[3−4.顔向き正規化処理(ステップS112)]
さらに、図2のステップS112における顔向き正規化処理について詳細な説明をする。顔向き正規化処理は、例えば非特許文献4に開示されているような、射影変換に基づいた3次元正規化法を用いて顔向きの正規化を行うことができる。
3次元正規化法は、顔画像上の複数の特徴点から、一般3次元顔形状への投影行列を求め、回転、サイズ、顔の向きによる姿勢変化を同時に正規化する方法である。3次元正規化法は、まず、平均的な3次元顔形状である一般3次元顔形状を作成し、一般3次元顔形状上の特徴点座標を予め定める。
次に、一般3次元顔形状の特徴点座標と計測行列Wから、運動行列Mを算出する。顔特徴点抽出処理により、顔画像からN個の特徴点が得られる場合、画像上のi番目の特徴点座標を(u,v)、全特徴点の重心を(u,v)、特徴点座標から重心座標を引いた座標を(u ,v )=(u−u,v−v)としたときに、計測行列Wは以下の(1)式により2×N行列として定義される。
また、一般3次元顔形状の対応するi番目の特徴点座標を(x,y,z)、重心座標を(x,y,z)、特徴点座標から重心を引いた座標を(x’,y’,z’)とすると、形状行列Sは以下の(2)式により3×N行列として定義される。
このとき、顔画像と一般3次元形状の間の投影関係を表す2×3行列の運動行列Mは、以下の(3)式で定義される。
さらに、以下の(4)式により形状行列Sの疑似逆行列Sを計算することで、運動量列Mを求める。
次いで得られた運動行列を用いて、顔画像の3次元正規化処理を行う。得られた運動行列Mは、顔形状上の特徴点を顔画像上に投影した場合に、顔画像上の特徴点との誤差が最小となるような投影行列とみなすことができる。この、投影関係に基づいて、任意の顔形状の点(x,y,z)と対応する顔画像上の点(u,v)を以下の(5)式により求め、正規化画像に必要な全てのx,y座標について対応する顔画像上の点を求める。
得られた点の画素値を3次元形状の画素値と置き換えることで、顔向き正規化画像が算出される。
図5は、本処理例に係る顔向き正規化処理の処理結果を示す説明図である。図5を参照すると、顔向きの異なる画像から得られる顔画像と顔特徴点、顔画像に3次元正規化処理をして得られる顔向き正規化画像、顔画像をアフィン変換により正規化した位置正規化画像が示される。
位置正規化画像は、顔特徴点抽出処理により得られる顔画像の特徴点の位置に基づいて、顔画像を2次元的な変換であるアフィン変換することで得られる。具体的には、位置正規化画像は、例えば顔画像から検出された目、鼻、口等の特徴点が、正面向きのときに表示される顔画像の位置に移動するように、線形変換と平行移動の組み合わせにより顔画像を変形させることで得られる。
図5に図示した例では、正面向き、右15°向き、右30°向き、上15°向きのそれぞれの顔向きについて、抽出された顔画像と顔特徴点、顔向き正規化画像、位置正規化画像を示している。
顔画像は、顔検出処理部130により画像10から抽出された顔領域20であり、顔特徴点として、両目の中心P2、鼻P4、口の右端P7、口の左端P8が抽出されている。
図5を参照して、顔画像の左側である顔の左半分の領域を比較すると、位置正規化画像は、顔の正面向き、右15°向き、右30°向き、上15°向きのそれぞれの顔向きで目や眉の形状、鼻の大きさ等の見え方が異なることがわかる。特に、「右15°向き→右30°向き」と顔向き大きくなるに従い、見え方に大きな変化が現れる。一方、顔向き正規化画像は、顔の正面向き、右15°向き、右30°向き、上15°向きのいずれの場合においても、大きな見え方の変化がなく、顔向きの大きさによって見え方が変化しない。
また、顔画像の右側である顔の右半分の領域を比較すると、位置正規化画像は、特徴点である両目の中心P2、鼻P4、口の右端P7、口の左端P8は、正面向きと同じ位置に移動されているが、目や眉の形状、鼻の大きさ、口の形等の見え方が正面向きと大きく異なることがわかる。一方、顔向き正規化画像は、右30°向きの下側や右端の領域において、撮影時のオクルージョンによる影響からノイズが発生する領域はあるが、ノイズが発生していない領域を比較すると、いずれの向きにおいても、見え方に大きな変化がないことがわかる。
次に、図6、7を参照して、顔向き正規化画像と位置正規化画像の見え方の違いを説明する。各画像の見え方は、各画像のHaar−like特徴の特徴量を抽出することで、数値として表現できる。Haar−like特徴は、非特許文献5に開示されているように、2種類の局所領域の明暗差をもとに抽出される特徴量である。図6は、本処理例に係る顔向き正規化画像から抽出したHaar−like特徴の一例を示す説明図である。図7は、位置正規化画像から抽出したHaar−like特徴の一例を示す説明図である。
図6を参照すると、正面向き、右15°向き、右30°向きの各顔向きにおける顔向き正規化画像と、顔画像の局所領域が異なる特徴1〜5における特徴量の抽出結果が示される。各局所領域は、例えば第1局所領域40と第2局所領域50とからなり、右目周辺や鼻周辺等の顔の特徴的な領域に設けられる。特徴量は、第1局所領域40と第2局所領域50の明暗差から数値として算出される。異なる顔画像の見え方を比較する場合、例えばこの特徴量の値の差が小さいと、各顔画像の局所領域の明暗差は同程度となり、見え方が同じであると判断される。
図6に図示した顔向き正規化画像の特徴例では、顔の左側から中央の局所領域にあたる特徴1〜2において、右15°向きと右30°向きの特徴量は、正面向きの特徴量と差の絶対値が5以内と小さくなる。したがって、正面向き、右15°向き、右30°向きの見え方は、同じであることがわかる。
特徴3〜5では、各領域の特徴量は、「正面向き→右15°向き→右30°向き」と顔向きの角度が大きくなるにしたがって、特徴量の値の差が大きくなる傾向がある。また、「特徴3→特徴4→特徴5」と領域が顔画像の右端側に移動するにしたがって、正面向きと他の向きでの特徴量の値の差が大きくなる傾向がある。これは、顔向き正規化画像中のノイズの影響であり、顔向きが右側に大きくなることで、オクルージョンが発生する顔の右領域において、顔以外の背景等が含まれる領域が大きくなることが原因となる。
図7を参照すると、正面向き、右15°向き、右30°向きの各顔向きにおける位置正規化画像と、顔画像の局所領域が異なる特徴1〜5における特徴量の抽出結果が示される。図7に図示した例では、正面向きと右15°向きの特徴2における局所領域では、特徴量の差の絶対値が1と小さいが、その他の局所領域では特徴量の差の絶対値は11以上と大きくなる。また、正面向きと右30°向きでは、特徴1〜5のいずれの局所領域においても、特徴量の差の絶対値は11以上と大きくなる。
このように、顔向き正規化処理では、3次元正規化法を用いることで、ノイズの少ない領域において、顔向きの大きさによらず特徴量の値の差が小さくなり、見え方を同じにすることができる。
[3−5.部分属性推定処理(ステップS116)]
次に、図8、9を参照して、図2のステップS116における部分属性推定処理について詳細な説明をする。部分属性推定処理では、顔向き正規化処理によって生成された顔向き正規化画像を複数の領域に区分し、区分された各領域に人物属性の推定をする。図8は、顔の領域を左、中央、右に3分割した例を示す説明図である。図9は、図8の各領域における属性推定結果を示す表である。
図8に図示した例では、人物属性の推定をする領域として、顔向き正規化画像を、左領域、中央領域、右領域の3つに区分された領域を用いる。
人物属性の推定には、例えばHaar−like特徴を特徴量として利用し、非特許文献6に開示されているVector Boostを識別器として利用することができる。
なお、使用される特徴量と識別器は、推定する人物属性の種類に合わせて変更されることが望ましい。これは、性別、年齢といった異なる属性の推定においては、適切な特徴量と識別器が異なるからである。推定する人物属性の種類に合わせて、使用する特徴量と識別器を変更することで、推定精度を向上させることができる。
図9に、図8の各顔向き及び各領域での人物属性の推定結果を示す。図9に図示した例では、人物属性として性別を推定する。また、単に二値により男女を判定するのではなく、例えば男性らしさという尺度を人物属性評価値として、−1.0〜+1.0の連続値として性別を判定する。この場合、人物属性評価値が+1.0のときが最も男性らしく、−1.0のときが最も女性らしいとなるため、0より大きい値であれば男性と推定され、0よりも小さい値であれば女性と推定される。また、人物属性評価値が0であれば判定不能となる。本処理例で判定する人物は、男性であるため、人物属性評価値が0よりも大きい値であれば正しい推定となる。
図9を参照すると、正面向きでは、領域によらず人物属性評価値が全て+0.7と同じ値になっており、正しい人物属性の推定ができていると考えられる。また、左領域では、どの顔向きにおいても人物属性評価値が+0.7となっており、顔向きによらず、正しく推定がされていることがわかる。しかし、中央領域では右30°向きの顔向きにおいて、人物属性評価値は女性と推定される値である−0.5となり、正面向きと異なる結果が推定される。また、右領域では右15°向きと右30°向きの両方の顔向きにおいて、人物属性評価値は+0.1、−1.0と、正面向きと異なる結果が推定される。
これらの顔向き毎の各領域における推定精度の違いは、顔向きの角度が大きくになるにしたがって推定精度が低くなり、さらに右領域に近くなるにしたがって推定精度が低くなる。この推定精度が低下する傾向は、図6で説明した局所領域での特徴量の差が右領域に近づくほど大きくなる傾向と対応する。したがって、各領域における推定精度の違いは、オクルージョンにより発生する、顔向き正規化画像のノイズが原因となる。
[3−6.推定結果統合処理(ステップS120)]
次に、図2のステップS120における推定結果統合処理について詳細な説明をする。推定結果統合処理は、部分属性推定処理により得られた顔画像の各領域の人物属性の推定結果と、顔向きに応じた各領域への重み付けとに基づいて、顔画像の人物属性を推定するための人物属性評価値を算出する。
図9で説明したように、各領域の推定結果は、顔向きによって精度が異なり、ノイズが多い領域においては推定精度が低くなる。このため、推定結果統合処理では、顔向きに応じて各領域に重み付けを行い、推定結果を統合する。顔向きに応じた重み付けは、例えば正面向きと左右それぞれの向きで15°、30°、45°、60°の計9通りの顔向きに区分される。このとき、例えばステップS108により算出される顔向きが右向きである場合、正面向きから右向き7°未満を正面向きとし、右向き7°以上から22°未満を右15°向きとし、右向き23°以上から37°未満を右30°向きとし、右向き38°以上から52°未満を右45°向きとし、右向き53°以上から67°未満を右60°向きとして、重み付けをする顔向きの領域が区分される。
図10は、各領域の人物属性の推定結果を統合する際の重み付けの例を示す表である。図10を参照すると、顔向きが正面向きである場合は、3つの領域でほぼ均等に重み付けをする。さらに、顔向きの角度が右向きに大きくなるにしたがい、ノイズの少ない左領域の重みを大きくし、ノイズの多い右領域と中央領域の重みを小さくする。これにより、推定結果を統合する際に、ノイズの影響を小さくすることができ、人物属性の推定精度を向上させることができる。
図11は、図9の各領域における人物属性の推定結果を統合した結果を示す表である。図11に図示した例では、図9で示した各領域の人物属性の推定結果を、図10で示した重み付けを用いた場合と各領域に同じ重み付けを用いた場合の2通りの方法で統合した結果を示す。
各領域の人物属性の推定結果の統合は、例えば各領域の人物属性評価値を重み付け加算することで算出される。例えば顔向きが正面向きの場合、図9を参照すると、各領域の推定結果である人物属性評価値は、左側領域+0.7、中央領域+0.7、右領域+0.7である。また、図10を参照すると、統合する際に用いる重み付けは、左側領域0.3、中央領域0.4、右領域0.3である。これらの結果を重み付け加算すると、(+0.7)×0.3+(+0.7)×0.4+(+0.7)×0.3=+0.7となり、統合結果として+0.7という人物属性評価値が得られる。右15°向き、右30°向きについても同様の処理をすることで、右15°向きの場合は+0.58、右30°向きの場合は+0.46という人物属性評価値が得られる。
一方、各領域の重み付けを0.33として同じ重み付けで加算した場合、正面向きは+0.7、右15°向きの場合は+0.52、右30°向きの場合は−0.29という人物属性評価値が得られる。
これらの結果を比較すると、図10の重み付けを使用した場合、人物属性評価値は+0.7、+0.58、+0.46となり、いずれの顔向きにおいても人物属性評価値は0より大きいことから、正しい人物属性評価ができることがわかる。また、各顔向きの人物属性評価値は、差が大きいものでも絶対値で0.24と小さくなっており、顔向きによる推定精度のばらつきは小さくなる。一方、領域毎に同じ重み付けを使用した場合、人物属性評価値は+0.7、+0.52、−0.29となり、顔向きによっては0よりも小さい値となることから、正しい人物属性評価ができないことがわかる。また、各顔向きの人物属性評価値は、差が大きいもので絶対値で0.99と大きくなっており、顔向きによる推定精度のばらつきは大きくなる。
ここで、顔向き毎の各領域の重み付けは、学習により得ることができる。例えば、顔向き毎の各領域の重み付けは、重回帰分析を用いて、人物属性が判明している顔向きが等しい複数の顔画像から算出されてもよい。この場合、まず、複数の顔画像に対して各領域の属性推定処理を行う。次に、正解の人物属性評価値を目的変数とし、各領域の人物属性の推定結果を説明変数として重回帰分析を行う。これにより、ある顔向きでの各領域の重み付けを算出することができる。
図12を参照して、学習により顔向き毎の各領域の重み付けを算出する例について詳細な説明をする。図12は、ある顔向きにおける各領域の人物属性推定結果の例を示す表である。図12に図示した例では、人物属性は性別であるため、正解の人物属性評価値として、男性である場合に「+1」、女性である場合に「−1」という値を割り当てる。図12に図示した例では、重み付けに使用する人物属性推定結果の例として、6枚の顔向き正規化画像についての人物属性の推定結果である推定例1から6を使用する。このとき、推定例1から3は男性の顔画像であるので、正解の人物属性評価値を「+1」とし、推定例4から6は女性の顔画像であるので、正解の人物属性評価値を「−1」とする。図12に図示した例では、正解の人物属性評価値を目的変数とし、各領域の人物属性の推定結果を説明変数として重回帰分析を行うことにより、ある角度における領域の重み付けが算出される。
このように、推定結果統合処理では、顔向きに応じて各領域の人物属性推定結果に重み付けをして統合することで、顔向き正規化画像のノイズによる影響を少なくすることができ、顔向きの角度が大きい顔画像においても人物属性の推定精度を向上させることができる。また、推定結果統合処理では、複数の顔画像から重回帰分析にて重み付けを算出することで、顔向きによるノイズの影響を精度よく考慮することができるようになる。
[3−7.人物属性推定処理(ステップS124)]
次に、図2のステップS124における人物属性推定処理について詳細な説明をする。人物属性推定処理は、推定結果統合処理(ステップS120)により算出される人物属性評価値に基づいて、顔画像の人物の人物属性を最終的に推定する。
図11に図示した例では、性別を推定する人物属性評価値は、−1.0〜+1.0の範囲の値として算出される。この場合、人物属性推定部190は、例えば人物属性評価値が0よりも大きい場合に人物属性は男性であると推定し、人物属性評価値が0よりも小さい場合に人物属性は女性であると推定する。また、人物属性推定処理は、例えば人物属性評価値が0である場合に人物属性は不明であると推定する。
以上、本実施形態に係る本人物属性推定装置100について説明した。本実施形態に係る人物属性推定装置100は、3次元正規化法を用いて顔向き正規化を行うことで、顔向きの違いによる見え方の違いを少なくすることができる。これにより、本実施形態に係る本人物属性推定装置100は、見え方の違いにより生じる人物属性推定に影響する特徴量の違いを少なくすることができる。
また、本実施形態に係る本人物属性推定装置100は、分割された顔向き正規化処理画像の各領域について人物属性を推定し、推定結果を顔向きに応じた各領域の重み付けで統合し、最終的な人物属性の推定をする。これにより、本実施形態に係る本人物属性推定装置100では、顔向き正規化の際に生じるノイズの影響を低減することができる。以上、これらのことから、本実施形態に係る本人物属性推定装置100は、様々な顔向きの顔画像に対して正確に人物属性を推定することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は係る例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、本処理例では、推定する人物属性として性別を推定したが、本発明はかかる例に限定されない。例えば、年齢や表情等を人物属性とする場合においても、本発明により人物属性を推定することができる。
例えば、本実施形態では、顔向き正規化処理として投影変換に基づいた3次元正規化法を例に説明したが、本発明はかかる例に限定されない。例えば、他の顔向き正規化処理法を用いて顔向き正規化処理を行ってもよい。
例えば、本処理例では、部分属性推定処理において顔向き正規化画像を左、中央、右の3領域に区分したが、本発明はかかる例に限定されない。例えば、顔向き正規化画像を上、中央、下の3領域に区分してもよい。また、例えば、顔向き正規化画像を左右方向と上下方向に3領域ずつに区分し、計9領域に区分してもよい。さらに、例えば、顔向き正規化画像を左右方向または上下方向の少なくともいずれか一方向に複数の領域に区分してもよい。
この場合、例えば顔向き正規化画像を区分する方向を顔向きに合わせてもよい。前述のように顔向き正規化処理によるノイズの発生は、オクルージョンが影響しているため、顔向きの方向に対応してノイズが発生する。例えば、図5に図示したように、顔向きが右向きになると、顔の右領域でノイズが発生する。このため、例えば顔向きが正面向きから左右方向に傾いている場合は、左右方向に領域を分け、上下方向に傾いている場合は、上下方向に領域を分けてもよい。これにより、オクルージョンが発生する領域に対応した区分けが可能となるため、顔向き正規化画像をノイズが少ない領域と多い領域に適切に分けることができる。
例えば、本処理例では、部分属性推定処理において顔向き正規化画像を左、中央、右の3領域に区分したが、本発明はかかる例に限定されない。例えば、目、鼻、口等の顔のパーツを含む領域に区分し、各領域の人物属性の推定を行ってもよい。
例えば、本実施形態では、部分属性推定処理においてHaar−like特徴を特徴量としVector Boostを識別器として人物属性推定処理をしたが、本発明はかかる例に限定されない。例えば、エッジ量を特徴量としてもよい。また、例えば、SVM(Support Vector Machine)を識別器としてもよい。
例えば、本処理例では、推定結果統合処理において重回帰分析を利用して重み付けを算出したが、本発明はかかる例に限定されない。例えば、各領域の属性推定処理の乗算を利用してもよい。また、例えば、各領域の属性推定処理結果を入力ベクトルとして、SVM等を構成して識別させてもよい。
例えば、本実施形態では、顔検出処理部130により生成される顔画像を使用して、ステップS104からステップS124の処理を行ったが、本発明はかかる例に限定されない。例えば、顔検出処理により抽出される画像の顔領域を使用して、ステップS104からステップS124の処理を行ってもよい。
例えば、本実施形態では、人物属性推定装置100は、記憶部110と入力部120を備えるが、本発明はかかる例に限定されない。例えば、人物属性推定装置100は、記憶部110と入力部120のいずれか一方のみを備える構成でもよい。
例えば、本実施形態では、最終的な人物属性の推定を人物属性推定部190で行うが、本発明はかかる例に限定されない。例えば、推定結果統合処理部180が、人物属性評価値をもとに最終的な人物属性の推定を行ってもよい。
100 人物属性推定装置
110 記憶部
120 入力部
130 顔検出部
140 顔特徴点抽出処理部
150 顔向き推定処理部
160 顔向き正規化処理部
170 部分属性推定処理部
180 推定結果統合処理部
190 人物属性推定部
10 画像
20 顔領域
40 第1局所領域
50 第2局所領域
P1〜P8 顔特徴点

Claims (9)

  1. 顔画像の顔向きを正規化する顔向き正規化処理部と、
    正規化した顔向き正規化画像に基づいて、前記顔向き正規化画像を区分した領域ごとに人物属性をそれぞれ推定する部分属性推定処理部と、
    前記部分属性推定処理部による前記顔向き正規化画像の各領域に対する人物属性推定結果と、顔向きに応じた、前記顔画像の撮影時のオクルージョンによる影響から当該顔向き正規化画像に発生するノイズが多い領域の重みが小さくなり当該ノイズが少ない領域の重みが大きくなるような重み付けと、に基づいて前記顔画像の人物属性を推定するための人物属性評価値を算出する推定結果統合処理部と、
    を備える、人物属性推定装置。
  2. 顔画像の特徴点に基づいて顔向きを推定する顔向き推定処理部をさらに備える、請求項1に記載の人物属性推定装置。
  3. 前記人物属性推定装置は、前記人物属性評価値に基づいて前記顔画像の人物属性を推定する人物属性推定部をさらに備える、請求項1または2に記載の人物属性推定装置。
  4. 前記顔向き正規化処理部は、前記顔画像を、3次元形状モデルを用いて正規化する、請求項1〜3のいずれか1項に記載の人物属性推定装置。
  5. 前記推定結果統合処理部は、正規化前の顔向きにより前記顔向き正規化画像のノイズが大きくなる領域の重みが小さくなるように重み付けをする、請求項1〜4のいずれか1項に記載の人物属性推定装置。
  6. 前記推定結果統合処理部は、同様な顔向きの複数の画像から学習した結果を用いて、前記部分属性推定処理部の推定結果を顔向きに応じて重み付けで統合する請求項1〜5のいずれか1項に記載の人物属性推定装置。
  7. 前記部分属性推定処理部は、前記顔画像を左右または上下の少なくともいずれか一方の方向に分けた領域ごとに人物属性を推定する、請求項1〜6のいずれか1項に記載の人物属性推定装置。
  8. 顔画像の顔向きを正規化するステップと、
    正規化した顔向き正規化画像に基づいて、前記顔向き正規化画像を区分した領域ごとに人物属性をそれぞれ推定するステップと、
    前記正規化するステップによる前記顔向き正規化画像の各領域に対する人物属性推定結果と、顔向きに応じた、前記顔画像の撮影時のオクルージョンによる影響から当該顔向き正規化画像に発生するノイズが多い領域の重みが小さくなり当該ノイズが少ない領域の重みが大きくなるような重み付けと、に基づいて前記顔画像の人物属性を推定するための人物属性評価値を算出するステップと、
    を含む、人物属性推定方法。
  9. 顔画像の顔向きを正規化する機能と、
    正規化した顔向き正規化画像に基づいて、前記顔向き正規化画像を区分した領域ごとに人物属性をそれぞれ推定する機能と、
    前記正規化する機能による前記顔向き正規化画像の各領域に対する人物属性推定結果と、顔向きに応じた、前記顔画像の撮影時のオクルージョンによる影響から当該顔向き正規化画像に発生するノイズが多い領域の重みが小さくなり当該ノイズが少ない領域の重みが大きくなるような重み付けと、に基づいて前記顔画像の人物属性を推定するための人物属性評価値を算出する機能と、
    をコンピュータに実現させるためのプログラム。
JP2013107167A 2013-05-21 2013-05-21 人物属性推定装置、人物属性推定方法及びプログラム Active JP6430102B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013107167A JP6430102B2 (ja) 2013-05-21 2013-05-21 人物属性推定装置、人物属性推定方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013107167A JP6430102B2 (ja) 2013-05-21 2013-05-21 人物属性推定装置、人物属性推定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014229012A JP2014229012A (ja) 2014-12-08
JP6430102B2 true JP6430102B2 (ja) 2018-11-28

Family

ID=52128822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013107167A Active JP6430102B2 (ja) 2013-05-21 2013-05-21 人物属性推定装置、人物属性推定方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6430102B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6642523B2 (ja) 2017-06-19 2020-02-05 カシオ計算機株式会社 表情判定装置、表情判定方法及びプログラム
CN108792849A (zh) * 2018-06-29 2018-11-13 杜昭钦 垂直升降结构大数据安保系统
CN108829900B (zh) * 2018-07-31 2020-11-10 成都视观天下科技有限公司 一种基于深度学习的人脸图像检索方法、装置及终端
JP7306152B2 (ja) * 2019-08-14 2023-07-11 沖電気工業株式会社 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
KR100831187B1 (ko) * 2003-08-29 2008-05-21 닛본 덴끼 가부시끼가이샤 웨이팅 정보를 이용하는 객체 자세 추정/조합 시스템
JP4696857B2 (ja) * 2005-11-02 2011-06-08 オムロン株式会社 顔照合装置
JP4655235B2 (ja) * 2008-03-14 2011-03-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5671928B2 (ja) * 2010-10-12 2015-02-18 ソニー株式会社 学習装置、学習方法、識別装置、識別方法、およびプログラム

Also Published As

Publication number Publication date
JP2014229012A (ja) 2014-12-08

Similar Documents

Publication Publication Date Title
US9372546B2 (en) Hand pointing estimation for human computer interaction
US9275273B2 (en) Method and system for localizing parts of an object in an image for computer vision applications
US9158970B2 (en) Devices, systems, and methods for visual-attribute refinement
CN104573614B (zh) 用于跟踪人脸的设备和方法
US9443325B2 (en) Image processing apparatus, image processing method, and computer program
JP6417664B2 (ja) 人物属性推定装置、人物属性推定方法及びプログラム
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
Huang et al. A component-based framework for generalized face alignment
JP6430102B2 (ja) 人物属性推定装置、人物属性推定方法及びプログラム
Venkatesh et al. A novel approach to classification of facial expressions from 3D-mesh datasets using modified PCA
Tu et al. Automatic location of facial feature points and synthesis of facial sketches using direct combined model
JP2013015891A (ja) 画像処理装置、画像処理方法及びプログラム
Fooprateepsiri et al. A general framework for face reconstruction using single still image based on 2D-to-3D transformation kernel
Luo et al. Dynamic face recognition system in recognizing facial expressions for service robotics
Jariwala et al. A real time robust eye center localization using geometric eye model and edge gradients in unconstrained visual environment
Zamuner et al. A pose-adaptive constrained local model for accurate head pose tracking
Jacques et al. Improved head-shoulder human contour estimation through clusters of learned shape models
Ptucha et al. Facial pose estimation using a symmetrical feature model
Hati et al. Review and improvement areas of mean shift tracking algorithm
Yu Facial feature detection and tracking with a 3d constrained local model
Bhavani et al. Illumination invariant face recognition for frontal faces using modified census transform
Efraty et al. Towards 3D-aided profile-based face recognition
Xu et al. Three-dimensional face recognition using geometric model
Zavan et al. Nose pose estimation in the wild and its applications on nose tracking and 3d face alignment
Choi et al. Face alignment using segmentation and a combined aam in a ptz camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170815

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171026

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171106

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20171124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181031

R150 Certificate of patent or registration of utility model

Ref document number: 6430102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150