JP6131732B2 - 人物属性提示装置及び人物属性提示方法 - Google Patents

人物属性提示装置及び人物属性提示方法 Download PDF

Info

Publication number
JP6131732B2
JP6131732B2 JP2013127328A JP2013127328A JP6131732B2 JP 6131732 B2 JP6131732 B2 JP 6131732B2 JP 2013127328 A JP2013127328 A JP 2013127328A JP 2013127328 A JP2013127328 A JP 2013127328A JP 6131732 B2 JP6131732 B2 JP 6131732B2
Authority
JP
Japan
Prior art keywords
image
attribute
person
unit
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013127328A
Other languages
English (en)
Other versions
JP2015001921A (ja
Inventor
翔 磯部
翔 磯部
一真 山本
一真 山本
増田 誠
誠 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2013127328A priority Critical patent/JP6131732B2/ja
Publication of JP2015001921A publication Critical patent/JP2015001921A/ja
Application granted granted Critical
Publication of JP6131732B2 publication Critical patent/JP6131732B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像中の人物の年齢や性別等の人物属性を推定し、推定結果を提示する人物属性提示装置及び人物属性提示方法に関する。
人物を含む画像から、画像中の人物の年齢や性別等の人物属性を推定する技術がある。例えば、画像が顔を含む顔画像である場合、顔画像中の人物の属性である年齢を推定することで、スキンケアや美容整形等の効果を提示することができる。
例えば、特許文献1には、顔の特定の部位の皺と年齢との相関関係を求め、スキンケアを行う前の顔画像と、スキンケアを行った顔画像との差から年齢差を推定し、スキンケアの効果を算出する技術が開示されている。
また、例えば特許文献2には、顔の4種類の皺の程度を5段階に分け、それぞれ基準となる写真と入力画像とを比較することでスコアを算出し、部位ごとのスコアと年齢の回帰式により年齢を推定する技術が開示されている。
特許第4489764号公報 特許第4575619号公報
R.Linhart and J. Maydt, "An Extended Set of Haar-likeFeatures for Rapid Object Detection", Proceedings ofthe 2002 IEEEE International Conference on Image Processing, Vol.1, pp.900-903,2002. 三田雄志,"AdaBoostの基本原理と顔検出の応用",情報処理学会研究報告.CVIM,2007(42), pp.265-272, 2007.
しかし、特許文献1、2に開示された技術では、顔の部位を用いて人物の属性を推定しているが、顔全体の属性推定結果を表示させるにとどまっており、部位毎といった顔の一部の領域の属性推定結果を得ることはできないという問題があった。
また、顔全体の属性推定結果の表示にあたり、顔の各領域がどの程度、顔全体の属性推定結果に影響しているのかを表示できないという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画像中の人物の人物属性を分割された領域毎に属性を推定し、推定した結果を表示させることが可能な、新規かつ改良された人物属性提示装置および人物属性提示方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、人物が含まれる画像を複数の領域に分割する領域分割部と、分割された複数の領域毎に人物属性を推定する属性推定部と、分割された複数の領域毎の人物属性の推定結果に関する情報を出力部に表示させる属性出力制御部と、ユーザから入力された前記画像に対する修正情報に基づいて、前記画像の分割された前記領域のうち少なくとも一つ以上の該領域に対して画像処理を行い、修正後画像を作成する画像修正部と、を備え、前記属性推定部は、前記修正後画像の前記領域の人物属性を推定する、人物属性提示装置が提供される。
領域分割部は、画像の一部または全体を複数の領域に分割してもよい。
前記属性出力制御部は、分割された前記領域毎の人物属性の推定結果に関する情報を、前記画像または前記画像を模式化
した模式画像のうち少なくともいずれか一方に重畳させて前記出力部に表示させてもよい。
属性表示制御部は、分割された領域毎の人物属性の推定結果に関する情報を、推定結果毎に設定された表示形態で領域を表示するよう制御してもよい。
属性推定部は、分割された領域毎に、各領域が含まれるHaar−like特徴の特徴量に基づいて、人物属性の推定を行ってもよい。
前記属性推定部は、予め人物が含まれる複数の画像と当該画像の人物属性とに基づいてHaar−like特徴毎に算出される重み付けを用いて人物属性の推定を行ってもよい。
属性推定部は、画像全体における人物属性を推定してもよい。
属性推定部は、Haar−ilke特徴の特徴量に基づいて、画像全体における人物属性を推定してもよい。
前記属性出力制御部は、前記画像全体における人物属性の推定結果に関する情報を前記出力部に表示させてもよい。
修正前の前記画像について、分割された前記領域毎の人物属性の推定結果に関する情報と、修正後画像について、分割された領域毎の人物属性の推定結果に関する情報との少なくともいずれか一方を記憶する記憶部をさらに備えてもよい。
1つの前記画像に対応する前記修正後画像が複数ある場合に画像処理が行われた前記画像の人物属性の複数の推定結果と、修正前の前記画像の人物属性の推定結果との評価の差が最も大きい前記修正後画像に関する情報を選択する画像修正効果比較部をさらに備えてもよい。
前記属性出力制御部は、前記画像の人物属性の推定結果に関する情報と、前記修正後画像の人物属性の推定結果に関する情報との比較結果を前記出力部に出力させてもよい。
画像は、人物の顔が含まれる顔画像であってもよい。
前記属性表示制御部の出力結果に基づいて、前記属性推定部による推定結果に関する情報を表示する前記出力部をさらに備えてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、人物が含まれる画像を複数の領域に分割するステップと、分割された複数の領域毎に人物属性を推定するステップと、分割された複数の領域毎の人物属性の推定結果に関する情報を表示させるステップと、ユーザから入力された前記画像に対する修正情報に基づいて、前記画像の分割された前記領域のうち少なくとも一つ以上の該領域に対して画像処理を行い、修正後画像を作成するステップと、を含み、前記推定するステップは、前記修正後画像の前記領域の人物属性を推定することを含む、人物属性提示方法が提供される。
以上説明したように本発明によれば、画像中の人物の人物属性を分割された領域毎に推定し、推定した結果を表示させることが可能になる。
本発明の第1の実施形態に係る人物属性提示装置を示すブロック図である。 同実施形態に係る人物属性提示処理を示すフローチャートである。 同実施形態に係る人物属性提示装置による人物属性の推定結果の一提示例を示す説明図である。 同実施形態に係るHaar−like特徴例を示す説明図である。 同実施形態に係るHaar−like特徴を用いた一領域の人物属性の推定例を示す説明図である。 本発明の第2の実施形態に係る人物属性提示装置を示すブロック図である。 同実施形態に係る人物属性提示処理を示すフローチャートである。 同実施形態に係る画像修正処理を示すフローチャートである。 同実施形態に係る人物属性提示装置による人物属性の推定結果の一提示例を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.第1の実施形態>
[1−1.装置構成]
まず、図1を参照して、本発明の第1の実施形態に係る人物属性提示装置の概略構成について説明する。図1は、本発明の第1の実施形態に係る人物属性提示装置100を示すブロック図である。人物属性提示装置100は、例えば人物が含まれる画像から、画像中の人物の年齢や性別等の人物属性を推定する装置である。人物属性提示装置100は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備える情報処理装置である。
図1を参照すると、人物属性提示装置100は、例えば画像入力部110と、制御部120と、出力部160とを備える。
画像入力部110は、例えば人物が含まれる画像を、人物属性提示装置100に接続された外部装置から取得する。外部装置は、例えば人物属性提示装置100に直接またはネットワークを介して接続されたカメラ、USB(Universal Sirial Bus)メモリやHDD(Hard Disc Drive)等の記憶媒体、光ディスク等に記録媒体に記憶された情報を読み取るデバイス等である。
制御部120は、例えば画像入力部110により取得された画像を複数の領域に分割し、領域毎に人物属性の推定を行い、推定結果を出力部160に表示させる。制御部120は、例えば領域分割部130と、属性推定部140と、属性出力制御部150とを備える。
領域分割部130は、画像入力部110により取得された画像を、複数の領域に分割する。領域分割部130は、複数の領域に分割された画像を属性推定部140に出力する。
属性推定部140は、領域分割部130で複数の領域に分割された画像について、各領域の年齢や性別等の人物属性を推定する。属性推定部140は、各領域の人物属性の推定結果を属性出力制御部150に出力する。
属性出力制御部150は、属性推定部140で推定された推定結果から、推定結果に関する画像等の推定結果に関する情報を作成し、推定結果に関する情報を出力部160に表示させる。
出力部160は、例えば画像等を出力するモニター等の表示装置である。出力部160は、属性出力制御部150から出力された人物属性の推定結果に関する情報を表示する。
[1−2.処理フロー]
次に、図2を参照して、本施形態に係る人物属性提示装置100の人物属性提示処理の概要について説明する。図2は、同実施形態に係る人物属性提示処理を示すフローチャートである。
まず、画像入力部110は、人物属性提示装置100に接続された外部装置から入力される人物が含まれる画像を取得する(S100:入力処理)。
次いで、領域分割部130は、画像入力部110により取得された画像を、複数の領域に分割する(S110:領域分割処理)。このとき、領域分割部130が分割する画像の領域は、画像全体でもよく、画像中の人物の特定の部位を含む領域でもよい。分割された領域は、例えば1画素単位や、一定のサイズ及び形状のグリッド、任意のサイズ及び形状でもよい。
さらに、属性推定部140は、領域分割部130で複数の領域に分割された画像について、各領域の年齢や性別等の人物属性を推定する(S120:属性推定処理)。
その後、属性出力制御部150は、属性推定部140で推定された推定結果から、推定結果に関する画像等の推定結果に関する情報を作成し、推定結果に関する情報を出力部160に表示させる(S130:属性出力制御処理)。
以上、本実施形態に係る人物属性提示処理の概要について説明した。本実施形態に係る人物提示処理では、複数の領域に分割された画像の各領域について、人物属性の推定を行い、表示させる。これにより、ユーザは、例えば画像中の人物の人物属性を領域毎に認識できる。
[1−3.処理例]
次に、図3から5を参照して、本実施形態に係る人物属性提示装置100により、人物属性として年齢を推定する一処理例について説明する。また、本処理例では、人物を含む画像として、人物の顔が含まれる顔画像を用いた処理を実行する。
(1−3−1.入力処理(S100))
まず、図2のステップS100における入力処理について詳細な説明をする。入力処理は、例えば人物が含まれる画像を、人物属性提示装置100に接続された外部装置から取得する処理である。本処理例では画像入力部110は、画像として人物の顔が含まれる顔画像を取得する。顔画像は、例えば人物の顔が正面から撮像された画像であり、画像中には例えば人物の目、鼻、口及び顔の輪郭が含まれる。
また、入力処理では、画像入力部110は、取得する顔画像に関する情報を人物属性提示装置100に接続された図示しない入力装置または外部装置から取得してもよい。入力装置は、例えばマウスやキーボードなどのユーザからの入力を検知する装置である。顔画像に関する情報は、例えば顔画像中の人物の実年齢や実際の性別等の情報である。本処理例では、人物属性として年齢を推定するため、画像入力部110は、顔画像中の人物の実年齢を取得する。
(1−3−2.領域分割処理(S110))
次に、図2のステップS110における領域分割処理について詳細な説明をする。領域分割処理は、例えば画像入力部110により取得された画像を、複数の領域に分割する処理である。本処理例では、領域分割部130は、顔画像をグリッド状の領域に分割する。
図3は、同実施形態における人物属性提示装置100による人物属性の推定結果の一提示例を示す説明図である。図3に、グリッド状の領域22に分割された顔画像20を示す。図3に図示した例では、顔画像20は、縦17マス、横14マスのグリッド状の領域22に分割される。なお、領域のサイズや分割数は、予め設定されていてもよく、ユーザの指示に応じて決定されてもよい。
(1−3−3.属性推定処理(S120))
次に、図2のステップS120における属性推定処理について詳細な説明をする。属性推定処理は、領域分割部130で複数の領域22に分割された画像について、各領域22の年齢や性別等の人物属性を弱識別器に基づいて推定し、推定結果に関する画像を作成する処理である。本処理例では、属性推定部140は、各領域22の人物属性として年齢を推定する。本処理例に係る属性推定処理は、例えばHaar−like特徴と、AdaBoostとを用いることができる。
Haar−like特徴は、検出対象の物体に対する様々な形状の明暗パターンであり、特徴量は明暗パターンの輝度差を基に算出される値であり、原理は非特許文献1に記載されている。図4は、同実施形態に係るHaar−like特徴の例を示す説明図である。Haar−like特徴は、画像中の複数のパターンについて算出される。本処理例では、これらのHaar−like特徴のうち、人物属性の判定に大きな影響を与えるパターンが選択される。属性推定部140は、選択されたパターンのHaar−like特徴を用いて各領域の人物属性を推定する。例えば図4では、6つのパターンx〜xが特徴として選択される。例えばHaar−like特徴は、明暗パターンである第1局所領域40と第2局所領域50とからなる領域である。本処理例では、例えば第1局所領域40と第2局所領域50との明暗差からHaar−like特徴の特徴量を算出する。
AdaBoostは、教師付学習アルゴリズムの一つであり、学習サンプルに対する重みという概念を取り入れることによって、弱識別器の信頼度を求めることができ、原理は非特許文献2に記載されている。本処理例では、予め複数の顔画像と各顔画像の人物の実年齢とを用いて、年齢の推定に有効なHaar−like特徴をAdaBoostにより求めておく。例えば、年齢の推定に有効なHaar−like特徴として図4に示すパターンx〜xが求められた場合、各パターンに対して年齢の推定に用いる弱識別器h(x)〜h(x)と重みα〜αとが算出される。
図5を参照して、Haar−like特徴を用いた推定領域24の人物属性の推定例を説明する。図5は、本実施形態に係るHaar−like特徴を用いた推定領域24の人物属性の推定例を示す説明図である。推定領域24は、属性推定部140により人物属性を推定する領域であり、1又は複数の領域22からなる。図5に示した例では、推定領域24は、右目の右上側の分割された一つの領域22である。本推定例では、この推定領域24について、人物属性である年齢を推定する。属性推定部140は、推定領域24を含むHaar−like特徴を、上記AdaBoostを用いて算出された弱識別器h(x)に重みαをそれぞれ乗じた値から強識別器を求め、強識別器を用いて人物属性を推定する。図5に図示した例では、推定領域24は、図4に示すHaar−like特徴のうちパターンx〜xに含まれている。したがって、属性推定部140は、これら3パターンのHaar−like特徴を用いて推定領域24の人物属性を推定する。属性推定部140は、パターンx〜xのHaar−like特徴に対して、弱識別器h(x)〜h(x)と重みα〜αとをそれぞれ乗じて強識別器を求め、強識別器の識別結果から、推定領域24の人物属性を推定する。図5の例では、推定領域24の年齢は30代と推定されている。
また、図2のステップS120において、属性推定部140は、人物が含まれる画像全体での人物属性を推定してもよい。この場合、属性推定部140は、各領域の人物属性推定処理と同様、Haar−like特徴を特徴量とし、AdaBoostを識別器として用いることで人物属性を推定してもよい。本処理例では、予め複数の顔画像と顔画像の人物の実年齢とを用いて、年齢の推定に有効なHaar−like特徴をAdaBoostにより求めておく。例えば、年齢の推定に有効なHaar−like特徴として図4に示すパターンx〜xが求められた場合、年齢の推定に用いる弱識別器h(x)〜h(x)と重みα〜αとが算出される。属性推定部140は、これらのAdaBoostを用いて算出された弱識別器h(x)〜h(x)に重みα〜αをそれぞれ乗じた値から求められる強識別器により識別を行うことで年齢を推定する。
(1−3−4.属性出力制御処理(S130))
次に、図2のステップS130における属性出力制御処理について詳細な説明をする。属性出力制御処理は、属性推定部140で推定された推定結果から、推定結果に関する画像等の推定結果に関する情報を作成し、推定結果に関する情報を出力部160に表示させる処理である。
本処理例では、属性出力制御部150は、推定結果に関する情報の1つである推定結果を表す推定属性マップを作成する。図3に、人物属性の推定結果の一提示例である、属性推定マップ30を示す。属性推定マップ30は、例えばグリッド状に分割された顔画像20の各領域22の表示形態を、各領域22の推定結果に応じて変化させた画像である。図3に図示した例では、属性出力制御部150は、各領域22の内、顔の一部が含まれる領域22に対して、推定した人物属性を推定結果に応じて異なるハッチングで領域22を表した属性推定マップ30を作成している。このとき、属性出力制御部150は、例えば推定された年齢を10代、20代、30代、40代、50代以上の5つに区分して表示させてもよい。また、属性出力制御部150は、推定結果に応じて設定された色で領域22の人物属性の推定結果を表した属性推定マップ30を作成してもよい。このとき、属性出力制御部150は、例えば年齢が上がるにしたがって、色を濃くするように区分の色を設定してもよい。
次に、本処理例では、属性出力制御部150は、領域毎の人物属性の推定結果に関する情報として、作成した属性推定マップを出力部に表示させる。人物属性の推定結果の一提示例である図3を参照すると、表示画面10内には、属性推定マップ30と、凡例32とが示される。凡例32は、属性推定マップ30における各領域22の表示形態が、どの属性に対応するかを示す。図3に図示した例では、人物属性である年齢を5つに区分しておいる。本処理例では、各区分の表示形態を変えることで視覚的に各領域22の推定結果を分かり易くする。これにより、推定年齢の分布が可視化され、ユーザは、顔のどの領域が他の領域と比較して差があるのかを容易に確認することができる。
また、属性出力制御部150は、属性推定部140が推定した画像全体の人物属性の推定結果に関する情報を出力部160に表示させてもよい。例えば、図示しないが、属性出力制御部150は、図3の出力部160である表示画面10内に顔画像全体の人物属性の推定結果として年齢を表示することができる。これにより、ユーザは顔画像全体で推定された年齢と、顔の各領域の推定年齢との差を容易に把握することができる。
以上、本実施形態に係る人物属性提示装置100について説明した。本実施形態に係る人物属性提示装置100は、人物が含まれる画像を複数の領域22に分割し、各領域22について人物属性の推定を行い、推定結果に関する情報を作成し、出力部に表示させる。これにより、ユーザは、例えば画像中の人物のどの領域が他の領域と属性の評価の差があるかを容易に確認することができる。
<2.第2の実施形態>
[2−1.装置構成]
次に、本発明の第2の実施形態に係る人物属性提示装置100について説明する。まず、図6を参照して、本発明の第2の実施形態に係る人物属性提示装置100の概略構成について説明する。図6は、本発明の第2の実施形態に係る人物属性提示装置100を示すブロック図である。なお、図6の説明において、図1と同じ構成については、詳細な説明を省略する。
図6を参照すると、本実施形態に係る人物属性提示装置100は、画像入力部110と、制御部120と、修正情報入力部132と、記憶部142と、出力部160とを備える。
制御部120は、領域分割部130と、画像修正部134と、属性推定部140と、画像修正効果比較部144と、属性出力制御部150とを有する。
画像入力部110は、例えば人物が含まれる画像を、人物属性提示装置100に接続された外部装置から取得する。
領域分割部130は、例えば画像入力部110により取得された画像を、複数の領域に分割する。領域分割部130は、複数の領域に分割された画像を属性推定部140に出力する。
修正情報入力部132は、例えばユーザからの入力操作に基づいて、画像入力部110で取得された画像に対する修正情報を取得する。修正情報は、例えば画像において修正される領域を示す修正領域や、修正内容等の情報が含まれる。ユーザからの入力操作は、例えばマウス、キーボード、タッチパネル等の入力装置を介して行われる。修正情報入力部132は、入力装置から取得した修正情報を、画像修正部134に出力する。
画像修正部134は、例えば修正情報入力部132で取得された修正情報に基づいて、画像を修正し、修正された修正後画像を作成する。画像修正部134は、修正後画像を属性推定部140に出力する。なお、以下では修正がされる前の画像のことを、修正前画像という。
属性推定部140は、修正前画像及び修正後画像について、各領域の年齢や性別等の人物属性を推定する。属性推定部140は、各領域22の人物属性の推定結果を記憶部136、画像修正効果比較部144又は属性出力制御部150のうち少なくともいずれか一方に出力する。
記憶部142は、例えば修正前画像または修正後画像のうち少なくともいずれか一方の推定結果に関する情報を記憶する。記憶部142は、これらの推定結果に関する情報を画像修正効果比較部144に出力する。
画像修正効果比較部144は、後述する修正前画像及び修正後画像の人物属性の推定結果に関する情報に基づいて、画像修正の効果を比較する。推定結果に関する情報は、属性推定部140、記憶部142又は属性出力制御部150のうち少なくともいずれかから出力される。画像修正効果比較部144は、例えば一つの修正前画像に対して、対応する修正後画像が複数ある場合に、複数の修正後画像の中から修正前画像と比べて人物属性の推定結果の評価の差が大きい修正後画像の推定結果に関する情報を選択する。画像修正効果比較部144は、選択した修正後画像及び修正前画像の推定結果に関する情報を属性出力制御部150に出力する。
属性出力制御部150は、属性推定部140で推定された推定結果から、推定結果に関する画像等の推定結果に関する情報を作成し、推定結果に関する情報を画像修正効果比較部144に出力する。また、属性出力制御部150は、作成した推定結果に関する情報、又は画像修正効果比較部144から出力された修正後画像及び修正前画像の推定結果に関する情報のうち少なくともいずれかを出力部160に出力させる。
出力部160は、属性出力制御部150から出力された各領域22の人物属性の推定結果に関する情報を出力する。このとき、出力部160は、例えば推定結果に関する情報を表示させるモニター等の表示装置であってもよく、音声等を出力するスピーカー等の音声出力装置であってもよい。
[2−2.処理フロー]
次に、図7、8を参照して、本実施形態に係る人物属性提示装置100の人物属性提示処理について説明する。図7は、本実施形態に係る人物属性提示処理を示すフローチャートである。なお、図7の説明において、図2と同じ処理については、詳細な説明を省略する。
まず、画像入力部110は、人物属性提示装置100に接続された外部装置から入力される人物が含まれる画像を取得する(S200:入力処理)。図7のステップS200は、図2のステップS100の処理と同様に行うことができる。
次いで、領域分割部130は、画像入力部110により取得された画像を、複数の領域22に分割する(S210:領域分割処理)。図7のステップS210は、図2のステップS110の処理と同様に行うことができる。
さらに、属性推定部140は、領域分割部130で複数の領域22に分割された画像である修正前画像について、各領域22の年齢や性別等の人物属性を推定する(S220:属性推定処理)。図7のステップS220は、図2のステップS120の処理と同様に行うことができる。
その後、修正情報入力部170は、ユーザからの入力操作に基づいて、修正前画像に対する修正情報を取得する(S230:修正情報入力処理)。修正情報は、例えば修正前画像の修正領域、修正する処理の内容等の情報が含まれる。修正領域は、ユーザにより任意に選択される一つ以上の領域22や、人物の特定の部位等を含む領域22である。修正する処理の内容は、選択された領域に対して行われる、回転、変形、皺やシミを消す、輝度値の変換等の画像処理の処理内容である。選択される人物の特定の部位は、例えば修正前画像が、顔画像である場合、目、鼻、口、頬等の顔の部分が選択されてもよい。また、修正前画像が全身である場合、腕、足、腰等の部分が選択されてもよい。例えば、画像修正処理で目尻を上げたい場合、修正領域として目尻を含む領域が選択され、修正情報にはアフィン変換により領域を回転させる処理内容が含まれる。
次いで、画像修正部134は、修正情報入力部132で取得された修正情報に基づいて、領域分割部130で複数の領域22に分割された修正前画像を修正し、修正された修正後画像を作成する(S240:画像修正処理)。このとき、画像修正部134は、修正情報に応じて、複数の修正後画像を作成してもよい。例えば、画像修正部134は、修正領域が複数ある場合や修正する処理の内容が複数のパターンである場合には、修正処理に応じて複数の修正後画像を作成する。
ここで、図8を参照して、ステップS240における画像修正処理について、詳細に説明をする。図8は、本実施形態に係る画像修正処理を示すフローチャートである。
まず、図7のステップS240における画像修正処理が開始されると、画像修正部134は、ユーザに選択された修正前画像の修正領域を選択する(S242)。修正領域は、修正前画像の分割された領域単位で選択されてもよく、また人物の特定の部位を含む範囲として複数の領域22が選択されてもよい。
次いで、画像修正部134は、ステップS242で選択された領域に対して、ユーザに選択された処理内容の画像処理をする(S244)。処理内容は、選択された修正領域に対して行われる、回転、変形、皺やシミを消す等の画像処理である。
さらに、画像修正部134は、選択された修正領域に画像処理を行った修正後画像を属性推定部140に出力する(S246)。
図7の説明に戻り、ステップS240にて修正後画像が属性推定部140に出力されると、属性推定部140は、修正後画像の各領域22の年齢や性別等の人物属性を推定する(S250:属性推定処理)。図7のステップS250は、図2のステップS120の処理と同様に行うことができる。
その後、属性出力制御部150は、属性推定部140で修正前画像及び修正後画像の人物属性の推定結果から、推定結果に関する画像等の推定結果に関する情報を作成する(S260:第1の属性推定処理)。図7のステップS260は、図2のステップS130における推定結果に関する情報を作成する処理と同様に行うことができる。
次いで、画像修正効果比較部144は、修正前画像修正前画像及び修正後画像の推定結果に関する情報に基づいて、画像修正の効果を比較する(S270:画像修正効果比較処理)。画像修正効果比較部144は、例えば一つの修正前画像に対して、対応する修正後画像が複数ある場合に、複数の修正後画像の中から修正前画像と比べて人物属性の推定結果の評価の差が大きい修正後画像を選択する。例えば、人物属性として年齢を推定する場合、画像修正効果比較部144は、修正前画像の推定結果と比較して、最も若い年齢が推定された修正後画像の推定結果に関する情報を選択する。
さらに、属性出力制御部150は、画像修正効果比較部144で選択された修正後画像及び修正前画像の推定結果に関する情報を出力部に出力させる(S280:第2の属性出力制御処理)。
以上、本実施形態に係る人物属性推定処理の概要について説明した。本実施形態に係る人物属性提示装置100は、ユーザからの指示にしたがって修正前画像に対して画像処理を行い修正後画像を作成し、修正前画像及び修正後画像の各領域について人物属性を推定する。これにより、ユーザは、例えばスキンケアや美容整形等を実際に行わなくても、スキンケアや美容整形等の効果を容易に確認することができる。
また、本実施形態に係る人物属性提示装置100は、複数の修正後画像の中から修正前画像と比べて人物属性の推定結果の評価の差が大きい修正後画像の推定結果に関する情報を選択する。これにより、例えば複数のスキンケアや美容整形等の選択肢の中から効果的な選択肢が自動的に選択され、ユーザは効果的なスキンケアや美容整形等の選択肢を簡便に確認することができる。
[2−3.処理例]
次に、図9を参照して、本実施形態に係る人物属性提示装置100により、人物を含む画像の修正を行い、人物属性として年齢を推定し、修正前後での推定結果を比較する処理例について説明する。また、本処理例では、人物を含む画像として、人物の顔が含まれる顔画像を用いた処理を実行する。なお、第1の実施形態と同じS200〜S230の処理については、詳細な説明をする。
[2−3−1.画像修正処理(S240)]
まず、図7のステップS240における画像修正処理について詳細な説明をする。画像修正処理は、例えば修正情報に基づいて、領域分割部130で複数の領域に分割された画像を修正し、修正された修正後画像を作成する画像修正処理を実行する処理である。本処理例では、顔画像として人物の顔が含まれる顔画像を取得する。
図9は、本実施形態における一処理例に係る人物属性の推定結果の一提示例を示す説明図である。図9の左側に、修正前画像である修正前顔画像20Aを示し、右側に、修正後画像である修正後顔画像20Bとを示す。図9に図示した例では、画像修正部134は、例えば修正前顔画像20Aに対して、部位を含む領域の推定年齢が他の領域の推定年齢と比べて高い部位である鼻と目を含む領域をそれぞれ変形させる。
図9の修正後顔画像20Bでは、ステップS242にて選択された修正領域70を太枠で囲まれた領域として示す。図9の右上側に示した修正後顔画像20Bは、両目を含む領域が選択され、右下側に示した修正後顔画像20Bは、鼻を含む領域が選択される。
また、ステップS244において、画像修正部134は、画像の修正処理を行う。図9の右上側の修正後顔画像20Bは、目を細くさせる処理が行われた例であり、右下側の修正後顔画像20Bは、鼻を細くさせる処理が行われた例である。このような処理は、例えば修正前顔画像20Aの修正領域70をアフィン変換することで行われてもよい。
さらに、ステップS246において、画像修正部134は、作成した修正後顔画像20Bを属性推定部140に出力する。図9に図示した例では、画像修正部134は、目を変形させた修正後顔画像20Bと、鼻を変形させた修正後顔画像20Bの2つの修正後顔画像20Bを、属性推定部140に出力する。
[2−3−2.修正後顔画像の属性推定処理(S250)]
次に、図7のステップS250における修正後画像の属性推定処理について説明する。修正後画像の人物属性の推定は、ステップS220と同様の方法で行われる。推定する修正後画像の領域は、修正後画像の分割された各領域全てに対して行われてもよい。また、推定する修正後画像の領域は、ステップS240にて修正が行われた修正領域70のみでもよい。この場合、推定が行われていない領域には、修正前画像の推定結果が用いることができる。
[2−3−3.第1の属性出力制御処理(S260)]
さらに、図7のステップS260における第1の属性出力制御処理について説明する。第1の属性出力制御処理は、修正前画像及び修正後画像の人物属性の推定結果から、推定結果に関する画像等の推定結果に関する情報を作成する処理である。修正前画像及び修正後画像の推定結果に関する情報の作成は、ステップS130における、推定結果に関する画像等の推定結果に関する情報を作成する処理と同様に行われる。
[2−3−4.画像修正効果比較処理(S270)]
次に、図7のステップS270における画像修正効果比較処理について説明する。画像修正効果比較処理は、修正前画像及び修正後画像の推定結果に関する情報に基づいて、画像修正の効果を比較する処理である。例えば、画像修正効果比較部144は、修正前画像と修正後画像の効果の差として、画像全体の人物属性の推定結果の評価の差を算出することができる。また、画像修正効果比較部144は、修正前画像と修正後画像の効果の差として、修正領域70における人物属性の推定結果の差を算出してもよい。評価の差は、例えば人物属性が年齢である場合は、年齢の差であってもよい。
図9に図示した例では、画像修正効果比較部144は、修正前顔画像20A及び修正後顔画像20Bの顔画像全体での年齢の差を評価値として用いる。図9を参照すると、顔画像全体での年齢を推定した結果である全体属性推定結果60が示される。例えば、図9の上側の目を変形させた修正後顔画像20Bでは、全体属性推定結果60は26歳となり、全体属性推定結果60が29歳である修正前顔画像20Aとの評価値の差は3歳となる。一方、図9の下側の鼻を変形させた修正後顔画像20Bでは、全体属性推定結果60は28歳となり、修正前顔画像20Aとの評価値の差は1歳となる。この場合、画像修正効果比較部144は、目を変形させた修正後顔画像20Bの方が、差が大きく、年齢が若くなっていると判断し、目を変形させた修正後顔画像20Bを選択する。
[2−3−5.第2の属性出力制御処理(S280)]
次に、図7のステップS280における第2の属性出力制御処理について説明する。第2の属性出力制御処理は、例えば画像修正効果比較部144で選択された修正後顔画像及び修正前画像の人物属性の推定結果に関する情報を出力部160に出力させる処理である。
例えば、属性出力制御部150は、選択された修正後顔画像及び修正前画像の人物属性の推定結果に関する画像を配列させて出力部160に表示させてもよい。これにより、ユーザは、修正前画像と修正後画像とを比較しやすくなり、修正による効果を確認しやすくなる。また、属性出力制御部150は、修正後画像の人物属性の推定結果に関する画像と、推定結果に関する情報を出力部160に表示させてもよい。推定結果に関する情報は、例えば修正した修正前顔画像20Aの部位や範囲等の情報、修正前画像と修正後画像との推定結果の評価の差である。図9に図示した例では、属性出力制御部150は、出力部である表示画面10に、修正後画像の人物属性の推定結果に関する画像として修正後顔画像20Bの属性推定マップと、推定結果に関する情報として修正した部位に関するメッセージ80とが表示される。このとき、表示されるメッセージは、出力部に表示されるだけでなく、音声出力部から音声として出力されてもよい。これにより、ユーザは、例えばスキンケアや美容整形等の選択肢の内どれが効果的であるかを確認しやすくなる。
以上、本実施形態に係る本実施形態に係る人物属性提示装置100について、説明した。本実施形態に係る人物属性提示装置100は、修正前画像に対する画像処理により修正後画像を作成し、修正前画像及び修正後画像の各領域について人物属性の推定を行い、推定結果に関する画像を作成し、出力部に表示させる。これにより、ユーザは、例えばスキンケアや美容整形等を実際に行わなくても、スキンケアや美容整形等の効果を容易に確認することができる。
また、本実施形態に係る人物属性提示装置100は、複数の修正後画像の中から修正前画像と比べて人物属性の推定結果の評価の差が大きい修正後画像を選択する。これにより、例えば複数のスキンケアや美容整形等の選択肢の中から効果的な選択肢が自動的に選択され、ユーザは効果的なスキンケアや美容整形等の選択肢を簡便に取得することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、第1および第2の実施形態では、推定する人物属性を年齢としたが、本発明はかかる例に限定されない。例えば、人物属性は性別であってもよい。この場合、例えば男性的な度合または女性的な度合を推定することができる。例えば、男性的な度合を+1.0〜−1.0で示される値とし、+1.0が最も男性らしく、−1.0が最も女性らしいという連続した値を用いてもよい。
また、例えば、第1の実施形態では、人物属性を推定する画像を顔が含まれる顔画像としたが、本発明はかかる例に限定されない。例えば、人物属性を推定する画像は、人物の全身が含まれる全身画像してもよい。これにより、手、足及び腰等の体の部位毎の人物属性を推定することができる。
また、例えば、第1および第2の実施形態では、属性推定マップ30は、顔画像20に人物属性の推定結果を重畳させて表示されるが、本発明はかかる例に限定されない。例えば、顔画像20ではなく、顔を模式化した模式画像に人物属性の推定結果を重畳させて表示させてもよい。
また、例えば、第2の実施形態では、画像修正効果比較部144は、複数の修正後画像の中から修正前画像と比べて人物属性の推定結果の評価の差が大きい修正後画像の推定結果に関する情報を一つ選択するが、本発明はかかる例に限定されない。例えば、画像修正効果比較部144は、人物属性の推定結果の評価の差が大きい修正後画像の推定結果に関する情報を複数選択してもよい。さらに、画像修正効果比較部144は、例えば評価の差がユーザに予め設定された値に近い推定結果に関する情報を選択してもよい。
また、例えば、第2の実施形態では、画像修正効果比較部144は、複数の修正後画像の中から修正前画像と比べて人物属性の推定結果の年齢が最も若い修正後画像の推定結果に関する情報を選択するが、本発明はかかる例に限定されない。例えば、選択される修正後画像の推定結果に関する情報は、例えば年齢の高い推定結果に関する情報であってもよい。
また、例えば、第1および第2の実施形態では、属性推定マップ30は、顔画像20に人物属性の推定結果に応じて領域22をハッチングして表示させるが、本発明はかかる例に限定されない。例えば、推定する人物属性が年齢である場合に数字等を顔画像20に重畳させて表示させてもよい。このとき、年齢表示の単位は、10代、20代、30代…のように、10歳単位で表示させてもよく、10歳、11歳、12歳…のように、1歳単位で表示させてもよい。さらに、例えば、推定結果に応じて設定された色等で属性推定マップ30を作成する場合、推定結果の値に応じて連続的に色を変化させて表示させてもよい。
また、例えば、第1および第2の実施形態では、属性推定処理において、Haar−like特徴の特徴量に基づいて人物属性を推定したが、本発明はかかる例に限定されない。例えば、エッジ量等の他の特徴量を含む弱識別器を用いてもよい。
100 人物属性提示装置
110 画像入力部
120 制御部
130 領域分割部
140 属性推定部
144 画像修正効果比較部
150 属性出力制御部
160 出力部
170 修正情報入力部
180 画像修正部
190 記憶部
10 表示画面
20 顔画像
20A 修正前画像
20B 修正後画像
22 グリッド
24 推定領域
30 属性推定マップ
32 属性凡例
40 第1局所領域
50 第2局所領域
60 画像全体の推定結果
70 修正領域
80 メッセージ

Claims (15)

  1. 人物が含まれる画像を複数の領域に分割する領域分割部と、
    分割された複数の前記領域毎に人物属性を推定する属性推定部と、
    分割された複数の前記領域毎の人物属性の推定結果に関する情報を出力部に表示させる属性出力制御部と、
    ユーザから入力された前記画像に対する修正情報に基づいて、前記画像の分割された前記領域のうち少なくとも一つ以上の該領域に対して画像処理を行い、修正後画像を作成する画像修正部と、
    を備え、
    前記属性推定部は、前記修正後画像の前記領域の人物属性を推定する、人物属性提示装置。
  2. 前記領域分割部は、前記画像の一部または全体を複数の領域に分割する、請求項1に記載の人物属性提示装置。
  3. 前記属性出力制御部は、分割された前記領域毎の人物属性の推定結果に関する情報を、前記画像または前記画像を模式化した模式画像のうち少なくともいずれか一方に重畳させて前記出力部に表示させる、請求項1または2に記載の人物属性提示装置。
  4. 前記属性出力制御部は、分割された前記領域毎の人物属性の推定結果に関する情報を、推定結果毎に設定された表示形態で前記領域を表示するよう制御する、請求項3に記載の人物属性提示装置。
  5. 前記属性推定部は、分割された前記領域毎に、前記各領域が含まれるHaar−like特徴の特徴量に基づいて、人物属性の推定を行う、請求項1〜4のいずれか1項に記載の人物属性提示装置。
  6. 前記属性推定部は、予め人物が含まれる複数の画像と当該画像の人物属性とに基づいてHaar−like特徴毎に算出される重み付けを用いて人物属性の推定を行う、請求項5に記載の人物属性提示装置。
  7. 前記属性推定部は、前記画像の全体における人物属性を推定する、請求項1〜6のいずれか1項に記載の人物属性提示装置。
  8. 前記属性推定部は、Haar−ilke特徴の特徴量に基づいて、前記画像の全体における人物属性を推定する、請求項7に記載の人物属性提示装置。
  9. 前記属性出力制御部は、前記画像の全体における人物属性の推定結果に関する情報を前記出力部に表示させる、請求項7または8に記載の人物属性提示装置。
  10. 修正前の前記画像について、分割された前記領域毎の人物属性の推定結果に関する情報と、
    前記修正後画像について、分割された前記領域毎の人物属性の推定結果に関する情報とのうち少なくともいずれか一方を記憶する記憶部をさらに備える、請求項1に記載の人物属性提示装置。
  11. 1つの前記画像に対応する前記修正後画像が複数ある場合に画像処理が行われた前記画像の人物属性の複数の推定結果と、修正前の前記画像の人物属性の推定結果との評価の差が最も大きい前記修正後画像に関する情報を選択する画像修正効果比較部をさらに備える、請求項1または10に記載の人物属性提示装置。
  12. 前記属性出力制御部は、前記画像の人物属性の推定結果に関する情報と、前記修正後画像の人物属性の推定結果に関する情報との比較結果を前記出力部に出力させる、請求項1、10、11のいずれか1項に記載の人物属性提示装置。
  13. 前記画像は、人物の顔が含まれる顔画像である、請求項1〜12のいずれか1項に記載の人物属性提示装置。
  14. 前記属性出力制御部の出力結果に基づいて、前記属性推定部による推定結果に関する情報を表示する前記出力部をさらに備える、請求項1〜13のいずれか1項に記載の人物属性提示装置。
  15. 人物が含まれる画像を複数の領域に分割するステップと、
    分割された複数の前記領域毎に人物属性を推定するステップと、
    分割された複数の前記領域毎の人物属性の推定結果に関する情報を表示させるステップと、
    ユーザから入力された前記画像に対する修正情報に基づいて、前記画像の分割された前記領域のうち少なくとも一つ以上の該領域に対して画像処理を行い、修正後画像を作成するステップと、
    を含み、
    前記推定するステップは、前記修正後画像の前記領域の人物属性を推定することを含む、人物属性提示方法。
JP2013127328A 2013-06-18 2013-06-18 人物属性提示装置及び人物属性提示方法 Active JP6131732B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013127328A JP6131732B2 (ja) 2013-06-18 2013-06-18 人物属性提示装置及び人物属性提示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013127328A JP6131732B2 (ja) 2013-06-18 2013-06-18 人物属性提示装置及び人物属性提示方法

Publications (2)

Publication Number Publication Date
JP2015001921A JP2015001921A (ja) 2015-01-05
JP6131732B2 true JP6131732B2 (ja) 2017-05-24

Family

ID=52296388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013127328A Active JP6131732B2 (ja) 2013-06-18 2013-06-18 人物属性提示装置及び人物属性提示方法

Country Status (1)

Country Link
JP (1) JP6131732B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7400343B2 (ja) 2019-10-25 2023-12-19 スズキ株式会社 船外機

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3959724A1 (en) * 2019-04-23 2022-03-02 The Procter & Gamble Company Apparatus and method for visualizing cosmetic skin attributes
EP3959651A1 (en) 2019-04-23 2022-03-02 The Procter & Gamble Company Apparatus and method for determining cosmetic skin attributes

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4761924B2 (ja) * 2004-10-22 2011-08-31 株式会社 資生堂 肌状態診断システムおよび美容のためのカウンセリングシステム
JP4888217B2 (ja) * 2007-05-08 2012-02-29 オムロン株式会社 人物属性推定装置
JP2010244239A (ja) * 2009-04-03 2010-10-28 Nikon Corp 画像処理装置、デジタルカメラ及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7400343B2 (ja) 2019-10-25 2023-12-19 スズキ株式会社 船外機

Also Published As

Publication number Publication date
JP2015001921A (ja) 2015-01-05

Similar Documents

Publication Publication Date Title
US11747898B2 (en) Method and apparatus with gaze estimation
CN112330526B (zh) 一种人脸转换模型的训练方法、存储介质及终端设备
JP2020522807A (ja) セルフィーを撮影するためにユーザをガイドするためのシステム及び方法
CN106446781A (zh) 一种人脸图像处理方法及装置
JP4877374B2 (ja) 画像処理装置及びプログラム
KR101571241B1 (ko) 안면 표현형 결정 장치 및 방법
CN104794693B (zh) 一种人脸关键区域自动检测蒙版的人像优化方法
KR102014660B1 (ko) 개선된 나이 모델링 방법
JP6131732B2 (ja) 人物属性提示装置及び人物属性提示方法
US10885636B2 (en) Object segmentation apparatus and method using Gaussian mixture model and total variation
JP5726646B2 (ja) 画像処理装置、方法、及びプログラム
JP2020163100A5 (ja)
JP4219521B2 (ja) マッチング方法および装置並びに記録媒体
JP2015094973A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び記録媒体
JP2015114946A (ja) 画像処理装置、プログラムおよび画像処理方法
TWI675646B (zh) 乳房影像分析方法、乳房影像分析系統及非暫態電腦可讀取媒體
JP6318451B2 (ja) 顕著度画像生成装置、方法、及びプログラム
JP2016012253A (ja) 動作処理装置、動作処理方法及びプログラム
WO2015125759A1 (ja) 加齢分析方法及び加齢分析装置
JP6467817B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2007286923A (ja) 顔パーツの位置の検出方法及び検出システム
JP2019036151A (ja) 評価装置、評価方法および評価プログラム
US20220366248A1 (en) Learning apparatus, a learning method, object detecting apparatus, object detecting method, and recording medium
JP2016066383A (ja) メイクアップ支援装置およびメイクアップ支援方法
JP4683236B2 (ja) 目の位置の検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6131732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150