JP5286574B2 - オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム - Google Patents

オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム Download PDF

Info

Publication number
JP5286574B2
JP5286574B2 JP2010002824A JP2010002824A JP5286574B2 JP 5286574 B2 JP5286574 B2 JP 5286574B2 JP 2010002824 A JP2010002824 A JP 2010002824A JP 2010002824 A JP2010002824 A JP 2010002824A JP 5286574 B2 JP5286574 B2 JP 5286574B2
Authority
JP
Japan
Prior art keywords
attribute
object detection
face
image data
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010002824A
Other languages
English (en)
Other versions
JP2011141799A (ja
Inventor
黎 田
慎吾 安藤
章 鈴木
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010002824A priority Critical patent/JP5286574B2/ja
Publication of JP2011141799A publication Critical patent/JP2011141799A/ja
Application granted granted Critical
Publication of JP5286574B2 publication Critical patent/JP5286574B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、入力画像から検出認識対象であるオブジェクトを検出するとともに、そのオブジェクトの属性を認識するオブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラムに関する。
画像処理によるオブジェクト検出技術は、広く一般に普及しており、特に、近年、飛躍的に向上している。この中で、Haar特徴量(非特許文献1参照)と称される特徴量を用いて、従来用いられていたNN(Neural Network)、SVM(Support Vector Machines)による識別ではなく、Adaboostと呼ばれる統計学習機械による識別を行うことで、性能は従来と同等で、計算時間を高速にする方法が提案されている(非特許文献2)。ここで、Adaboostとは、弱識別器(Weak Learnerとも称する)を多数組み合わせることで、強識別器を構築できるとする理論であり、1996年に、Freundらによって提案されているものである(非特許文献3)。さらに、非特許文献3の手法では、Adaboostによるブースティングのフレームワークを用いて、大量にある積算画像を利用したHaar特徴量の中から、学習時に、有意な特徴量を選択し、それをカスケード接続することで、大幅な計算時間の短縮を可能にしている。特に、顔検出にAdaboostが有効な手法としてよく知られている。
一方、性別認識や年齢認識等の人の属性を認識する技術も広く一般に普及している。人の属性を認識するする手法としては、SVM(Support Vector Machines)とGabor特徴が知られている(例えば、非特許文献4参照)。
C. Papageorgiou, M. Oren and T. Poggio, "A General Framework for Object Detection," International Conference on Computer Vision, 1998 pp555−562, 1998. P. Viola and M. J. Jones, "Robust real−time face detection," IJCV, vol. 57, no. 2, pp. 137−154, May 2004. Y. Freund and R. E. Schapire, "Experiments with a new boosting algorithm," In Machine Learning: Proceedings of the Thirteenth International Conference, pages 148−156, 1996. E. Makinen and R. Raisamo, "Evaluation of gender classification methods with automatically detected and aligned faces," IEEE TPAMI, vol. 30, no. 3, pp. 541−547, Mar. 2008.
例えば、マーケティングの分野においては、商品をとりまく消費者の性別や人種などの情報を得ることは、その後の新商品開発において貴重なデータとなる。例えば、展示されている商品の付近を撮影しておき、この撮像画像を画像処理することによって、撮影画像に含まれる消費者の顔を検出するとともに、この顔の人物の性別を認識することで、商品ターゲットの分析に役立てることができる。
しかしながら、上述したオブジェクト検出の技術と性別認識の技術は、それぞれ手法が異なるため、独立して行う必要がある。このため、顔の検出をし、かつ、性別認識を行うためには、顔のオブジェクト検出処理と、男女の性別の認識処理とを別々に行う必要があり、処理時間が長くなる問題がある。
また、オブジェクト検出の技術と性別認識の技術が独立している場合、オブジェクト検出のための学習や特徴量の抽出処理と、性別認識のための学習や特徴量の抽出処理とが、それぞれ必要であり、利便性が悪くなってしまうという問題がある。
上述の課題を鑑み、本発明は、オブジェクトの検出および認識を行う際の処理効率を向上させることができるオブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラムを提供することを目的とする。
上述の課題を鑑み、本発明に係るオブジェクト検出認識装置は、第1の属性をもつオブジェクトを検出して識別するための第1オブジェクト検出用識別器と、前記第1の属性とは異なる第2の属性をもつ前記オブジェクトを検出して識別するための第2オブジェクト検出用識別器と、前記オブジェクトの第1の属性と第2の属性とを識別するための属性識別器とを記憶する識別器記憶手段と、入力された画像データから特徴量を取得し、当該特徴量に基づき、前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出するとともに前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出しない画像データを得た場合、当該画像データを前記第1の属性をもつオブジェクトを含む画像データとして得て、前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出するとともに前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出しない画像データを得た場合、当該画像データを前記第2の属性をもつオブジェクトを含む画像データとして得るオブジェクト検出認識手段と、前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出するとともに前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出した画像データを得た場合、前記属性識別器を用いて第1の属性と第2の属性との識別を行う属性認識手段と、を備えることを特徴とする。
また、本発明に係るオブジェクト検出認識方法は、入力された画像データから特徴量を取得する工程と、第1の属性をもつオブジェクトを検出して識別するための前記第1オブジェクト検出用識別器と、前記台1の属性とは異なる第2の属性をもつ前記オブジェクトを検出して識別するための前記第2オブジェクト検出用識別器を記憶する識別器記憶手段を参照して、前記入力された画像データから取得された特徴量に基づき、前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出するとともに前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出しない画像データを得た場合、当該画像データを前記第1の属性をもつオブジェクトを含む画像データとして得て、前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出するとともに前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出しない画像データを得た場合、当該画像データを前記第2の属性をもつオブジェクトを含む画像データとして得る工程と、前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出するとともに前記第2オブジェクト検出用識別器を用いて前記台2の属性をもつオブジェクトを検出した画像データを得た場合、前記オブジェクトの第1の属性と第2の属性とを識別するための属性識別器を用いて第1の属性と第2の属性との識別を行う工程と、を備えることを特徴とする。
また、本発明に係るプログラムは、コンピュータに、上述の各工程を実行させるためのプログラムである。
本発明によれば、男性顔検出用識別器と女性顔検出用識別器とを別々に設け、男性の顔のオブジェクト検出と女性の顔のオブジェクト検出とをともに行うことで、顔のオブジェクト検出と、男女の性別認識とが同時に行うことができる。これにより、顔検出と性別認識とを別々に行った場合に比べて、処理時間を短縮でき、処理効率を向上させることができる。
また、本発明によれば、特徴量の抽出を、髪や輪郭の情報が入る大きさの部分画像まで拡張することで、男女特有の特徴を抽出し、男女の認識を精度良く行うことができる。
本発明の第1の実施形態の顔検出及び性別認識装置の構成を示すブロック図である。 Haar特徴の説明図である。 識別器記憶部に保存される各弱識別器のデータ構造の説明図である。 識別器記憶部の保存されるデータの全体の構造の説明図である。 オブジェクト検出及び性別認識部での処理手順を示すフローチャートである。 特徴量の計算を行う場合の切り出し画像の説明図である。 積算画像の説明図である。 後処理を示すフローチャートである。 クラスタリングの説明図である。 性別再認識部での処理手順を示すフローチャートである。
[第1実施形態]
以下、本発明の実施の形態について図面を参照しながら説明する。図1は、本発明の第1実施形態に係るオブジェクト検出認識装置の構成を示すブロック図である。
図1に示すように、本発明の第1実施形態に係るオブジェクト検出認識装置は、識別器学習部101と、識別器記憶部102と、画像入力部103と、積算画像抽出部104と、積算画像記憶部105と、オブジェクト検出性別認識部106と、性別再認識部107と、結果出力部108とを含む。ここで、オブジェクト検出認識部106は、1のオブジェクトとして男性の顔を含む画像データ、および、他のオブジェクトとして女性の顔を含む画像データを検出認識する例を以下説明する。しかし、本発明は、これに限られず、同一のオブジェクトであって種類(例えば、顔)は同じであってその属性(例えば、性別)が異なるオブジェクト(例えば、男性の顔のオブジェクトと女性の顔のオブジェクト)をそれぞれ検出し認識する識別器を利用するものであればよい。
識別器学習部101は、男性顔学習部151と、女性顔学習部152と、男女認識学習部153とを含んでいる。この男性顔学習部151、女性顔学習部152、及び男女認識学習部153はそれぞれ、多数の学習画像データに基づき特徴量を取得し、取得された特徴量を用いて、それぞれ、男性顔検出用識別器161、女性顔検出用識別器162、及び男女識別器163の学習を行う。学習処理は、例えば、非特許文献1に開示されているように、男性顔画像データ、女性顔画像データ、非顔画像データを、それぞれ5000枚用意し、男性顔学習部151、女性顔学習部152、男女認識学習部153が、それぞれ、Haar特徴による特徴量を抽出し、Adaboost処理等を施すことにより行われる。
例えば、男性顔学習部151は、髪と輪郭を含む男性の顔の部分画像を含む5000枚の男性顔画像データと人の顔の部分画像を含まない5000枚の非画像データを用いて男性特有のHaar特徴による特徴量を抽出し、Adaboost処理等を施すことにより、男性の顔のオブジェクトを検出して識別するための男性顔検出用識別器161を作成する。
また、女性顔学習部152は、髪と輪郭を含む女性の顔の部分画像を含む5000枚の女性顔画像データと人の顔の部分画像を含まない5000枚の非画像データを用いて女性特有のHaar特徴による特徴量を抽出し、Adaboost処理等を施すことにより、女性の顔のオブジェクトを検出して識別するための女性顔検出用識別器162を作成する。
さらに、男女認識学習部153は、5000枚の男性顔画像データと5000枚の女性顔画像データを用いて、検出されたオブジェクトが男性の顔であるかあるいは女性の顔であるかを判断するためのHaar特徴による特徴量を抽出し、Adaboost処理等を施すことにより、検出されたオブジェクトが男性あるいは女性の顔であることを識別するための男女識別器163を作成する。
このHaar特徴は、図2(a)〜図2(d)に示すように、例えば4つの異なるタイプのパターン201、202、203、204を用いて、近接する矩形領域の輝度総和の差を求めることで得られる特徴量である。
本発明に係る第1実施形態において、識別器学習部101は、学習を行う際に、顔の目、鼻、口を含む中心部分の情報(画像データ)のみではなく、髪や輪郭の情報が入る大きさの部分画像に基づき特徴量を抽出する。髪の長さや髪型、輪郭の情報は、男女特有の特徴を表す情報となるからである。部分画像中に髪や輪郭の情報が入る大きさとしては、例えば、両目の中心を画像の中心として両目の間隔の3倍の大きさの縦横のサイズをもつ正方形の部分画像を用いる。さらに、例として、両目の間隔距離8画素とし、24×24画素のサイズの部分画像に対して学習を行う。
なお、ここでは、Haar特徴を取得しているが、取得する特徴量は、Haar特徴のようなオブジェクト検出と性別認識の両方に利用可能なものであれば、どのような特徴量を用いても良い。また、学習手法としては、Adaboostなど、分類問題を解決するものであれば、どのような技術を用いても良い。なお、AdaboostとHaar特徴に限らず、二クラス問題を識別できる識別器であればどのようなものであっても良い。また、識別器の形態として、複数の弱識別器から構成される強識別器、あるいはカスケード化された識別器でも良い。
識別器記憶部102は、識別器学習部101の学習によって得られた特徴量(識別パラメータ)を備える男性顔検出用識別器161、女性顔検出用識別器162、男女識別器163を記憶する。男性顔検出用識別器161は、男性の顔をオブジェクトとして、オブジェクト検出を行うための特徴量を備える識別器である。女性顔検出用識別器162は、女性の顔をオブジェクトとして、オブジェクト検出を行うための特徴量を備える識別器である。男女識別器163は、検出されたオブジェクトが男性の顔かあるいは女性の顔かの識別するための特徴量を備える識別器である。
図3は、識別器記憶部102に記憶されている各弱識別器のデータ構造の説明図である。図3に示すように、一つの弱識別器のデータ構造は、横軸座標301と、縦軸座標302と、サイズ303と、タイプ304と、閾値305とを含む。サイズ303は、図2で示しているようなパターン201〜204を構成する黒又は白の正方形のサイズを示している。例えば、サイズが「3」であれば、3×3画像の正方形を表している。タイプ304は、図2(a)〜図2(c)で示しているような4つのパターン201〜204のタイプを表している。
図4は、識別器記憶部102に記憶されているデータの全体の構造の説明図である。図4に示すように、識別器記憶部102には、各弱識別器に対応するHaar特徴と、強識別器の閾値tが含まれている。
図4は、識別器記憶部102に記憶されているデータの全体の構造の説明図である。図4に示すように、識別器記憶部102には、各弱識別器に対応するHaar特徴と、強識別器の閾値tが含まれている。ここで、強識別器の閾値tは、下記の式で計算できる。
Figure 0005286574
ここに示されるαは、各弱識別器の閾値であり、弱識別器ごとに0から1の間で決定する値である。
図1において、画像入力部103は、例えば、ビデオカメラなどからなり、判別対象となる顔を含む顔画像を撮影して、デジタル色画像情報を取得する。このデジタル色画像情報は、例えば、横方向に960画素、縦方向に720画素、RGBの各画素が8ビットからなる構造で、1秒間に5枚出力される画像情報である。さらに、画像入力部103は、色画像を濃淡画像に変換し、さらに濃度値の正規化(濃度値の平均を0、分散を1に正規化する)して出力する。
積算画像抽出部104は、画像入力部103により入力された画像の積算画像を抽出(算出)する。この積算画像抽出部104は、例えば下記の式に示すような計算に従って、この積算画像を算出する。
Figure 0005286574
ここでは、i(x’,y’)は画像の座標(x’,y’)にある画像の輝度値を表している。なお、積算画像に限らず、高速に計算できる積算ヒストグラムなどを用いても良い。
積算画像記憶部105は、積算画像抽出部104によって抽出(算出)された積算画像を記憶する。
オブジェクト検出性別認識部106は、画像入力部103から入力されたデジタル色画像情報に基づきオブジェクト検出を行う。前述したように、本発明に係る第1実施形態において、識別器記憶部102には、男性の顔のオブジェクト検出を行うための男性顔検出用識別器161と、女の性顔のオブジェクト検出を行うための女性顔検出用識別器162とが別々に設けられている。
このオブジェクト検出性別認識部106は、男性顔検出用識別器161を用いて男性の顔のオブジェクトかあるいは顔でないか(非顔か)の識別を行うとともに、女性顔検出用識別器162を用いて女性の顔のオブジェクトかあるいは顔でないか(非顔か)の識別を行う。これにより、オブジェクト検出認識部106は、顔のオブジェクト検出と男女の性別の認識とが同時に行われることになる。
すなわち、オブジェクト検出性別認識部106は、同一の対象(画像領域)に対して、男性顔検出用識別器161によって男性の顔のオブジェクトが検出されるとともに女性顔検出用識別器162によって女性の顔のオブジェクトが検出されない場合、オブジェクト検出によって人の顔を検出するとともに、当該検出されたオブジェクトの性別を男性と識別する。また、オブジェクト検出性別認識部106で、同一の対象(画像領域)に対して、女性顔検出用識別器162によって女性の顔のオブジェクトが検出されるとともに男性顔検出用識別器161によって男性の顔のオブジェクトが検出されない場合、オブジェクト検出によって人の顔を検出するとともに、当該検出されたオブジェクトの性別を女性と識別する。このように、オブジェクト検出性別認識部106は、男性顔検出用識別器161および女性顔検出用識別器162を用いて、人の顔のオブジェクト検出とともに男性あるいは女性とに性別認識を行うことができる。
性別再認識部107は、オブジェクト検出性別認識部106によって性別が認識できなかった顔に対して、性別の再認識を行う。
すなわち、本発明に係る第1実施形態において、オブジェクト検出性別認識部106は、男性顔検出用識別器161によって男性の顔のオブジェクトかあるいは非顔かの識別を行うとともに、女性顔検出用識別器162によって女性の顔のオブジェクトかあるいは非顔かの識別を行う。また、この結果だけでは、オブジェクトである顔(男性の顔、女性の顔、あるいは性別が不明な顔)は検出できたが、性別が認識できない場合がある。
例えば、オブジェクト検出性別認識部106が、同一の対象(画像領域)に対して、男性顔検出用識別器161によって男性の顔のオブジェクトを検出し、且つ、女性顔検出用識別器162によって女性の顔のオブジェクトを検出したような場合である。この場合、オブジェクト検出性別認識部106によって検出されたオブジェクトは、男性の顔でもあり女性の顔でもあるという結果になり、顔のオブジェクトであることは検出できたが、性別が認識できないことになる。つまり、オブジェクト検出性別認識部106は、性別不明な顔のオブジェクトを検出する。
この性別再認識部107は、オブジェクト検出性別認識部106によって性別不明な顔のオブジェクトが検出された場合、識別器記憶部102に記憶されている男女識別器163を用いて、性別の再認識を行う。
結果出力部108は、画像入力部103から入力された画像中の顔の検出結果及び男女の認識結果を出力する。
このように、本発明に係る第1の実施形態において、識別器記憶部102は、男性顔検出用識別器161と女性顔検出用識別器162とが別々に記憶される。そして、オブジェクト検出性別認識部106が、男性の顔のオブジェクト検出を行うとともに、女性の顔のオブジェクト検出を行う。その結果、顔のオブジェクト検出と、男女の性別認識とが同時に行われることになる。これにより、顔のオブジェクトを検出して男女の性別を認識するまでの処理時間を短縮でき、また、検出、認識精度の向上が図れる。
次に、図5を参照して、オブジェクト検出性別認識部106での処理について説明する。図5は、オブジェクト検出性別認識部106での処理手順を示すフローチャートである。
図5に示す通り、オブジェクト検出性別認識部106は、サイズsの初期化を行い(ステップS101)、横座標xの初期化を行い(ステップS102)、縦座標yの初期化を行う(ステップS103)。
次に、オブジェクト検出性別認識部106は、部分画像を切り出して、Haar特徴量の計算を行う(ステップS104)。なお、Haar特徴量の計算を行う際に、オブジェクト検出性別認識部106は、図6(a)〜図6(c)に示すように、1つの入力画像401からサイズの異なる複数の部分画像gs(i,j)を切り出す。切り出す部分画像のサイズは、変数sで指定される。そして、サイズの異なる複数の部分画像gs(i,j)のHaar特徴量を計算する。
このHaar特徴量は、図2(a)〜図2(d)に示したように、例えば4つの異なるタイプのパターン201〜204を用いて、近接する矩形領域の輝度総和の差を求めることで得られる。
また、任意矩形領域の明度輝度総和は、積算画像記憶部105に記憶されている積算画像に基づき、オブジェクト検出性別認識部106によって容易に得られる。つまり、図7で示すように、矩形領域A,B,C,Dを設定した場合、矩形領域A,B,C,Dと、積算画像ii(x,y)の関係は下記のようになる。
Figure 0005286574
ここで、任意矩形領域Dの輝度総和は下記の式により計算できる。
Figure 0005286574
よって、オブジェクト検出性別認識部106は、積算画像に基づき、任意矩形領域のHaar特徴が上式に示されるような加減算の演算に従って算出することによって、高速に算出できることになる。
つまり、オブジェクト検出性別認識部106は、部分画像のすべてのHaar特徴を計算する必要がなく、識別器記憶部102において記憶されている男性顔検出用識別器161及び女性顔検出用識別器162の各弱識別器に対応させるHaar特徴量のみを計算すれば良い。
また、識別器記憶部102において、各弱識別器のデータは、図3に示したような構造を持っている。この識別器記憶部全体の構造には、図4に示したように、各弱識別器以外に強識別器の閾値tが含まれている。したがって、オブジェクト検出認識部106は、このHaar特徴量を用いることで、積算画像記憶部105に記憶された積算画像を参照しながら、高速に計算できる。
このようにして、オブジェクト検出性別認識部106は、Harr特徴量を求めたら、次に、男性顔検出用識別器161によって、部分画像が男性の顔であるかどうかを識別する(ステップS105)。ここでは、部分画像において男性顔検出用識別器161に記憶されているすべてのHaar特徴量の総和が閾値tより大きい場合、男性顔が識別できたと判定する。
ステップS105で、男性顔であると識別されたら、オブジェクト検出性別認識部106は、女性顔検出用識別器162を用いて、部分画像が女性の顔であるかどうかを識別する(ステップS106)。ここでは、部分画像において女性顔検出用識別器162に記憶されているすべてのHaar特徴量の総和が閾値tより大きい場合、オブジェクト検出性別認識部106は、女性顔が識別できたと判定する。
ステップS106で、女性顔が識別できたと判定された場合には、男性顔も女性顔も識別されたので、オブジェクト検出性別認識部106は、性別が不明な顔のオブジェクトが検出できたことを性別再認識部107に出力する(ステップS108)。ステップS106で、女性顔が識別できないと判定された場合には、オブジェクト検出性別認識部106は、男性の顔のオブジェクトが検出できたことを結果出力部108に出力する(ステップS109)。
一方、ステップS105で、男性顔ではないと識別されたら、オブジェクト検出性別認識部106は、女性顔検出用識別器162を用いて、部分画像が女性の顔であるかどうかを識別する(ステップS107)。ここでは、部分画像において女性顔検出用識別器162に記憶されているすべてのHaar特徴量の総和が閾値tより大きい場合、女性顔が識別できたと判定する。
ステップS107で、女性顔が識別できたと判定された場合、オブジェクト検出性別認識部106は、女性の顔のオブジェクトが検出できたことを結果出力部108に出力する(ステップS110)。一方、ステップS107で、女性顔は識別できないと判定された場合、この部分画像は男性顔でもなくかつ女性顔でもないと識別されるので、オブジェクト検出性別認識部106は、この部分画像が非顔(つまり、顔を含まない画像)であることを結果出力部108に出力する(ステップS111)。
このようにして、ステップS108〜ステップS111の処理が終了したら、オブジェクト検出性別認識部106は、縦座標yを1つ進めて(ステップS112)、縦座標yが終了でなければ(つまり、デジタル色画像情報の縦座標の最大値まで到達していない場合)(ステップS113)、ステップS104に戻る。
また、ステップS113において、縦座標yが終了まで進んだら(つまり、デジタル色画像情報の縦座標の最大値まで到達した場合)、オブジェクト検出性別認識部106は、横座標xを1つ進めて(ステップS114)、横座標xが終了でなければ(つまり、デジタル色画像情報の横座標の最大値まで到達していない場合)(ステップS115)、ステップS103に戻る。
ステップS115で横座標xが終了まで進んだら(つまり、デジタル色画像情報の横座標の最大値まで到達した場合)、オブジェクト検出性別認識部106は、サイズsを次の大きさに変更し(ステップS116)、このサイズが終了でなければ(ステップS117)、ステップS102に戻る。
ステップS112〜ステップS117の処理により、図6(a)〜図6(c)に示すように、部分画像gs(i,j)のサイズsを変更しながら、部分画像gs(i,j)の探索が行われることになる。
画像の探索が終了したら、オブジェクト検出性別認識部106は、最後に、検出結果の後処理を行う(ステップS118)。この後処理とは、ステップS109において男性の顔のオブジェクトが検出された場合と、ステップS110で女性の顔のオブジェクトが検出された場合と、ステップS108で顔のオブジェクト(性別は不定)が検出された場合とにそれぞれ応じて、図8に示すようにして行われる。
図8は、オブジェクト検出性別認識部106による後処理を説明するためのフローチャートである。まず、検出の結果、近傍で多数の候補が検出されることが多いから、オブジェクト検出性別認識部106が、それらの候補が一つのオブジェクト(顔)であることを判別する必要がある。そこで、オブジェクト検出性別認識部106は、検出された候補をクラスタリングする(ステップS201)。
クラスタリングは、各候補の重なり度に基づいて実現される。図9で示すような重なり合う二つの領域A,Bにおいて、重なり度αは下記の式のように計算することができる。
Figure 0005286574
オブジェクト検出性別認識部106は、重なり度αがある閾値より大きい場合、この重なり度αで重なっている複数の領域を一つの領域にクラスタリングする。この閾値は、0から1の値の中で実験的に決定するものであるが、0.5から0.8までの間であることが望ましい。
次に、オブジェクト検出性別認識部106は、クラスタリングされた顔候補について、異なる複数の特徴量を用いた絞り込みチェックを行う。ここで、オブジェクト検出認識部106は、色による絞り込みチェックと(ステップS202)、二値画像による絞り込みチェックと(ステップS203)、目の部分のテンプレートによる絞り込みチェックを行う(ステップS204)。
絞り込みは、すべての特徴量を用いても良いし、一つの特徴量を用いても良い。色の場合、オブジェクト検出性別認識部106は、例えば、顔候補すべて画素のr,g,b値の総和R,G,Bを求めて、(R<B−300)若しくは(R<G−300)、又は(R<B−100)かつ(R<G−100)であれば、この画像を顔と判定する。なお、300と100などはパラメータ値であり、実験的に適正値を決める。
二値画像の場合、白画素数対全体画素数の割合が閾値を超えるとき、顔と判定する。この閾値は、0から1の値の間で実験的に決定するものであるが、0.7程度の値が望ましい。この割合以外は、線密度、孤立点数なども利用できる。
目のテンプレートの場合、目付近をテンプレートマッチングのスコアが一定値より高ければ顔と判定、それより低ければ顔でないと判定する。一定値は実験的に適正値を決める。
次に、性別再認識部107による処理の一例について説明する。図10は、性別再認識部107による処理手順の一例について説明するためのフローチャートである。
前述したように、性別再認識部107は、オブジェクト検出性別認識部106によって性別を認識できなかった画像が得られた場合、当該画像に対して性別の再認識を行うものである。すなわち、性別再認識部107は、図5のステップS108において、性別が不明な顔のオブジェクトを検出したことを判定された場合、オブジェクト検出性別認識部106は、性別の判定を行う。オブジェクト検出性別認識部106は、識別器記憶部102に記憶されている男女識別器163を用いて、性別の判定を行う。
図10は、性別再認識部107による再認識処理を説明するためのフローチャートである。
図10に示す通り、性別再認識部107は、性別が不明で顔のオブジェクトを検出された画像(言い換えると、性別の認識できなかった顔候補)の選択を行い、この候補画像cを初期化する(ステップS301)。次に、性別再認識部107は、顔候補のHaar特徴量を計算する(ステップS302)。ここで、部分画像のすべてのHaar特徴を計算する必要がなく、識別器記憶部102において記憶されている男女識別器163の各弱識別器に対応するHaar特徴量のみを計算すれば良い。
次に、性別再認識部107は、男女識別器163を用いて、当該部分画像が男性の顔であるかどうかを判定する(ステップS303)。
そして、性別再認識部107は、男女識別の結果、男性と判定されたら、男性顔が検出できたことを出力し(ステップS304)、男性でないと判定されたら、女性顔が検出できたことを出力する(ステップS305)。そして、性別再認識部107は、候補画像cを次の候補画像に進め(ステップS306)、候補画像が終了でなければ(ステップS307)、ステップS302に戻り、次の候補画像の男女識別を行う。一方、ステップS307で、候補画像cが終了になったら、処理を終了する。
なお、ステップST303における男女識別器163を用いた判定は、当該部分画像が女性の顔であるかどうかを判断するものであってもよい。この男女識別器163を用いた検出は、前述の男性顔のオブジェクト検出や女性顔のオブジェクト検出と基本的には同様である。また、前述の男性顔のオブジェクト検出や女性顔のオブジェクト検出と同様に、積算画像記憶部105に記憶されている積算画像を参照することで、特徴抽出時間を短縮できる。
以上説明したような手法により、本発明の第1の実施形態では、入力画像から顔のオブジェクトとして検出するとともに、男女の性別の認識を高速に行うことができる。なお、上記第1実施の形態では、性別のだけを判別する場合について説明したが、性別のみならず、年齢などの属性も判別できる。なお、顔のみならず、一般的な物体認識にも拡張できる。
また、本発明に係るオブジェクト検出認識装置は、第1オブジェクトを検出して識別するための第1オブジェクト検出用識別器と、第1オブジェクトと異なる第2オブジェクトを検出して識別するための第2オブジェクト検出用識別器を記憶する識別器記憶手段と、入力された画像データから特徴量を取得し、当該特徴量に基づき、第1オブジェクト検出用識別器を用いて第1オブジェクトを検出するとともに第2オブジェクト検出用識別器を用いて第2オブジェクトを検出しない画像データを得た場合、当該画像データを第1オブジェクトを含む画像データとして得るオブジェクト検出認識手段とを有することを特徴とするものである。
さらに、本発明に係るオブジェクト検出認識装置は、オブジェクト検出認識手段によって、第1オブジェクト検出用識別器を用いて第1オブジェクトを検出するとともに第2オブジェクト検出用識別器を用いて第2オブジェクトを検出した画像データを得た場合、当該画像データから取得される特徴量に基づき、当該検出されたオブジェクトが第1オブジェクトであるかあるいは第2オブジェクトであるかを判断するためのオブジェクト属性識別器を用いて、検出されたオブジェクトの再認識を行う再認識手段をさらに有することを特徴とするものである。
また、識別器学習手段は、第1オブジェクトとして髪と輪郭を含む男性の顔の部分画像を用いて男性特有の男性特徴量を得るとともに第2オブジェクトとして髪と輪郭を含む女性の顔の部分画像を用いて女性特有の女性特徴量を得て、当該男性特徴量および女性特徴量に基づき、顔のオブジェクトとして検出された画像データに基づき当該顔のオブジェクトが男性の顔であるかあるいは女性の顔であるか否かを認識するためのオブジェクト属性識別器の学習を行うことを特徴とするものである。
101:識別器学習部
102:識別器記憶部
103:画像入力部
104:積算画像抽出部
105:積算画像記憶部
106:オブジェクト検出及び性別認識部
107:性別再認識部
108:結果出力部
151:男性顔学習部
152:女性顔学習部
153:男女認識学習部
161:男性顔検出用識別器
162:女性顔検出用識別器
163:男女識別器

Claims (3)

  1. 第1の属性をもつオブジェクトを検出して識別するための第1オブジェクト検出用識別器と、前記第1の属性とは異なる第2の属性をもつ前記オブジェクトを検出して識別するための第2オブジェクト検出用識別器と、前記オブジェクトの第1の属性と第2の属性とを識別するための属性識別器とを記憶する識別器記憶手段と、
    入力された画像データから特徴量を取得し、当該特徴量に基づき、前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出するとともに前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出しない画像データを得た場合、当該画像データを前記第1の属性をもつオブジェクトを含む画像データとして得て、前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出するとともに前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出しない画像データを得た場合、当該画像データを前記第2の属性をもつオブジェクトを含む画像データとして得るオブジェクト検出認識手段と、
    前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出するとともに前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出した画像データを得た場合、前記属性識別器を用いて第1の属性と第2の属性との識別を行う属性認識手段と、
    を備えることを特徴とするオブジェクト検出認識装置。
  2. 力された画像データから特徴量を取得する工程と、
    第1の属性をもつオブジェクトを検出して識別するための前記第1オブジェクト検出用識別器と、前記台1の属性とは異なる第2の属性をもつ前記オブジェクトを検出して識別するための前記第2オブジェクト検出用識別器を記憶する識別器記憶手段を参照して、前記入力された画像データから取得された特徴量に基づき、前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出するとともに前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出しない画像データを得た場合、当該画像データを前記第1の属性をもつオブジェクトを含む画像データとして得て、前記第2オブジェクト検出用識別器を用いて前記第2の属性をもつオブジェクトを検出するとともに前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出しない画像データを得た場合、当該画像データを前記第2の属性をもつオブジェクトを含む画像データとして得る工程と、
    前記第1オブジェクト検出用識別器を用いて前記第1の属性をもつオブジェクトを検出するとともに前記第2オブジェクト検出用識別器を用いて前記台2の属性をもつオブジェクトを検出した画像データを得た場合、前記オブジェクトの第1の属性と第2の属性とを識別するための属性識別器を用いて第1の属性と第2の属性との識別を行う工程と、
    を備えることを特徴とするオブジェクト検出認識方法。
  3. コンピュータに、請求項2に記載の各工程を実行させるためのプログラム。
JP2010002824A 2010-01-08 2010-01-08 オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム Expired - Fee Related JP5286574B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010002824A JP5286574B2 (ja) 2010-01-08 2010-01-08 オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010002824A JP5286574B2 (ja) 2010-01-08 2010-01-08 オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2011141799A JP2011141799A (ja) 2011-07-21
JP5286574B2 true JP5286574B2 (ja) 2013-09-11

Family

ID=44457583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010002824A Expired - Fee Related JP5286574B2 (ja) 2010-01-08 2010-01-08 オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP5286574B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101175597B1 (ko) * 2011-09-27 2012-08-21 (주)올라웍스 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
CN112115740B (zh) * 2019-06-19 2024-04-09 京东科技信息技术有限公司 用于处理图像的方法和装置
JP6651085B1 (ja) * 2019-07-03 2020-02-19 Awl株式会社 属性認識システム、学習サーバ、及び属性認識プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4640825B2 (ja) * 2006-02-23 2011-03-02 富士フイルム株式会社 特定向き顔判定方法および装置並びにプログラム
JP4945477B2 (ja) * 2008-02-21 2012-06-06 株式会社日立国際電気 監視システム、人物検索方法
JP5293321B2 (ja) * 2009-03-23 2013-09-18 株式会社豊田中央研究所 対象物識別装置及びプログラム

Also Published As

Publication number Publication date
JP2011141799A (ja) 2011-07-21

Similar Documents

Publication Publication Date Title
US10049262B2 (en) Method and system for extracting characteristic of three-dimensional face image
US10438059B2 (en) Image recognition method, image recognition apparatus, and recording medium
Woodard et al. Periocular region appearance cues for biometric identification
EP2737434B1 (en) Gait recognition methods and systems
Islam et al. Multibiometric human recognition using 3D ear and face features
JP2001216515A (ja) 人物の顔の検出方法およびその装置
Woodard et al. Appearance-based periocular features in the context of face and non-ideal iris recognition
CN105243376A (zh) 一种活体检测方法和装置
Hebbale et al. Real time COVID-19 facemask detection using deep learning
JP2012083938A (ja) 学習装置、学習方法、識別装置、識別方法、およびプログラム
JP2012221061A (ja) 画像認識装置、画像認識方法、及びプログラム
Alzahrani et al. Hybrid feature learning and engineering based approach for face shape classification
Tsitsoulis et al. A methodology for extracting standing human bodies from single images
Liu et al. Facial makeup detection via selected gradient orientation of entropy information
Barbu An automatic face detection system for RGB images
Gonzalez-Sosa et al. Image-based gender estimation from body and face across distances
Sharma Designing of face recognition system
Sajid et al. The role of facial asymmetry in recognizing age-separated face images
Irhebhude et al. A gender recognition system using facial images with high dimensional data
JP5286574B2 (ja) オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム
KR101727833B1 (ko) 얼굴인식을 위한 판별분석 기반의 복합 특징 벡터 생성 장치 및 방법
Wijaya et al. Pornographic image recognition based on skin probability and eigenporn of skin ROIs images
Das et al. Human face detection in color images using HSV color histogram and WLD
Zhou et al. Real-time gender recognition based on eigen-features selection from facial images
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130514

R150 Certificate of patent or registration of utility model

Ref document number: 5286574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees