JP4588575B2 - デジタル画像の複数対象物検出方法および装置並びにプログラム - Google Patents

デジタル画像の複数対象物検出方法および装置並びにプログラム Download PDF

Info

Publication number
JP4588575B2
JP4588575B2 JP2005230704A JP2005230704A JP4588575B2 JP 4588575 B2 JP4588575 B2 JP 4588575B2 JP 2005230704 A JP2005230704 A JP 2005230704A JP 2005230704 A JP2005230704 A JP 2005230704A JP 4588575 B2 JP4588575 B2 JP 4588575B2
Authority
JP
Japan
Prior art keywords
image
partial image
weak
vector
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005230704A
Other languages
English (en)
Other versions
JP2007047975A (ja
Inventor
賢祐 寺川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005230704A priority Critical patent/JP4588575B2/ja
Priority to US11/500,982 priority patent/US7760940B2/en
Publication of JP2007047975A publication Critical patent/JP2007047975A/ja
Application granted granted Critical
Publication of JP4588575B2 publication Critical patent/JP4588575B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Description

本発明は、デジタル画像の中から複数の異なる検出対象物を検出する複数対象物検出方法および装置並びにそのためのプログラムに関するものである。
従来、コンピュータ等の計算機を用いて一般写真等のデジタル画像から顔等の所定の対象物(オブジェクト)を検出する方法が種々提案されている。このような対象物を検出する方法としては、例えば、比較的古くから利用されているテンプレートマッチングによる方法のほか、近年注目されているブースティング(Boosting)と呼ばれる学習手法を用いて実現される方法(特許文献1参照)等が知られている。
このブースティングによる学習手法を用いて実現される方法は、所定の対象物を表す複数の異なるサンプル画像と、所定の対象物でないことが分かっている複数の異なるサンプル画像とを用いて、その対象物の特徴を学習させ、ある画像が所定の対象物を表す画像であるか否かを判別することが可能な判別器を生成して用意しておき、その所定の対象物を検出する対象となる検出対象画像において部分画像を順次切り出し、その部分画像が所定の対象物を表す画像であるか否かを上記の判別器を用いて判別することにより、検出対象画像上で所定の対象物を検出するものである。
上記の判別器は、画像上の特徴量からその画像が所定の対象物であるか否かを判別する複数の弱判別器から構成されており、使用される弱判別器は、多数の弱判別器の中から学習により選定される。弱判別器は、画像上の特徴量を算出する固有のアルゴリズムを有しており、その判別基準の基礎は、図9に示すような、検出対象物を表す複数のサンプル画像について作成された、算出された特徴量の値とその頻度値との関係を示す第1のヒストグラムをW1(x)と、非検出対象物を表す複数のサンプル画像について同様に作成された第2のヒストグラムをW2(x)であり、判断基準は、図10に示すような、h(x)=(W1(x)−W2(x))/(W1(x)+W2(x))で表されるヒストグラムである。すなわち、未知の入力画像について特徴量を算出したときに、ヒストグラムh(x)のその特徴量の値に対応する頻度値の正負の別とその絶対値の大きさから、その未知の画像が検出対象物である蓋然性を知ることができ、例えば、頻度値が正で絶対値が大きいほど検出対象物である蓋然性が高く、一方、頻度値が負で絶対値が大きいほど非検出対象物である蓋然性が高いということになる。弱判別器は、それぞれ、このヒストグラムに基づいて、入力画像が検出対象物である蓋然性を示すスコアを算出するものであり、複数の判別器により算出されたスコアを総合的に評価することで、その入力画像が検出対象物であるか否かを判別することができる。
これらの方法は、例えば、ある画像が顔と非顔のいずれであるかを判別して顔を検出するような2クラス問題を解決するには有用であり、特に、ブースティングによる学習手法を用いて実現される方法は、高速性と高い検出能が両立しており、これに類似する技術も含め、種々の分野において広く使用されている。
US 2002/0102024 A1
しかしながら、上記のブースティングによる学習手法を用いて実現される方法を用いて画像から複数の対象物を検出するためには、ある画像を3つ以上のクラスに分離する必要があり、その対象物の種類と同数の判別器を用意しなければならない。例えば、画像から任意の向きの顔を検出するような場合には、顔の向きを細分化してそれぞれの向きについて顔を検出する必要があり、また、顔の一部が遮蔽された遮蔽顔やアンダー露光で表現されたアンダー顔等も検出しようとすると、それらの顔についても検出する必要があり、判別器の増大が予想される。これは、学習に手間が掛かる上、検出にも時間が掛かり、効率が悪いという問題がある。さらには、判別器間の判別基準の相違の問題も大きくなると思われる。
本発明は、上記事情に鑑み、デジタル画像において複数の対象物を効率よく検出することが可能なデジタル画像の複数対象物検出方法および装置並びにそのためのプログラムを提供することを目的とするものである。
本発明の複数対象物検出方法は、入力画像における複数の異なる対象物を検出する複数対象物検出方法であって、前記入力画像から切り出された所定の大きさの部分画像について輝度分布に係る特徴量を算出し、多次元ヒストグラム(N(N≧3)種類の異なる所定の対象物の該種類毎に、該所定の対象物を表す複数の異なるサンプル画像の各々について前記特徴量を求めて該特徴量の値のヒストグラムを得、得られたN個のヒストグラムの各々と、N−1次元空間において大きさが同一で等方性を有する所定のN個の基底ベクトルの各々とを1つずつ対応させて、各前記ヒストグラムにおける各頻度を該ヒストグラムに対応する基底ベクトルと線形に結合してベクトル化し、前記N個のヒストグラム間で互いに対応する前記特徴量の値に対する頻度のベクトル同士をそれぞれ合成して得られたN−1次元の多次元ヒストグラム)に基づいて、前記部分画像について算出された特徴量の値に対する前記多次元ヒストグラム上のベクトルを選択する、複数の弱判別器を用意するステップと、前記入力画像上の複数の異なる位置において前記所定の大きさの部分画像を切り出すステップと、前記部分画像の各々に対して、該部分画像に前記複数の弱判別器のうち少なくとも1つを適用して該弱判別器によって選択されたベクトルを合成し、該合成されたベクトルの前記各基底ベクトルの成分を、前記部分画像が該各基底ベクトルに対応する前記対象物である蓋然性を示すスコアとしてそれぞれ抽出し、該各スコアの大小に基づいて、前記部分画像が前記N種類の対象物のうちのいずれであるかを判別する判別処理を施すステップとを有するものである。
本発明の複数対象物検出方法において、前記複数の弱判別器は、該各弱判別器を直列に接続してなるものであり、前記判別処理を施すステップは、前記部分画像に前記弱判別器を先頭から順次適用して該弱判別器によって選択されたベクトルを累積して合成してゆき、該合成されたベクトルに基づいて抽出されたスコアのうちのいずれかが所定の閾値を超えたときに、前記部分画像が該閾値を超えたスコアに対応する前記対象物であると判別するステップであってもよい。
また、本発明の複数対象物検出方法において、前記複数の弱判別器は、多数の弱判別器の中からブースティングの学習手法により選定されたものであってもよい。
また、本発明の複数対象物検出方法において、前記複数の弱判別器は、さらに、ブースティングの学習手法により決定された順番で接続されてなるものであってもよい。
本発明の複数対象物検出装置は、入力画像における複数の異なる対象物を検出する複数対象物検出装置であって、前記入力画像から切り出された所定の大きさの部分画像について輝度分布に係る特徴量を算出し、多次元ヒストグラム(N(N≧3)種類の異なる所定の対象物の該種類毎に、該所定の対象物を表す複数の異なるサンプル画像の各々について前記特徴量を求めて該特徴量の値のヒストグラムを得、得られたN個のヒストグラムの各々と、N−1次元空間において大きさが同一で等方性を有する所定のN個の基底ベクトルの各々とを1つずつ対応させて、各前記ヒストグラムにおける各頻度を該ヒストグラムに対応する基底ベクトルと線形に結合してベクトル化し、前記N個のヒストグラム間で互いに対応する前記特徴量の値に対する頻度のベクトル同士をそれぞれ合成して得られたN−1次元の多次元ヒストグラム)に基づいて、前記部分画像について算出された特徴量の値に対する前記多次元ヒストグラム上のベクトルを選択する、複数の弱判別器と、前記入力画像上の複数の異なる位置において前記所定の大きさの部分画像を切り出す部分画像切出し手段と、前記部分画像の各々に対して、該部分画像に前記複数の弱判別器のうち少なくとも1つを適用して該弱判別器によって選択されたベクトルを合成し、該合成されたベクトルの前記各基底ベクトルの成分を、前記部分画像が該各基底ベクトルに対応する前記対象物である蓋然性を示すスコアとしてそれぞれ抽出し、該各スコアの大小に基づいて、前記部分画像が前記N種類の対象物のうちのいずれであるかを判別する判別処理を施す判別手段とを備えたことを特徴とするものである。
本発明の複数対象物検出装置において、前記複数の弱判別器は、該各弱判別器を直列に接続してなるものであり、前記判別手段は、前記部分画像に前記弱判別器を先頭から順次適用して該弱判別器によって選択されたベクトルを累積して合成してゆき、該合成されたベクトルに基づいて抽出されたスコアのうちのいずれかが所定の閾値を超えたときに、前記部分画像が該閾値を超えたスコアに対応する前記対象物であると判別するものであってもよい。
また、本発明の複数対象物検出装置において、前記複数の弱判別器は、多数の弱判別器の中からブースティングの学習手法により選定されたものであってもよい。
また、本発明の複数対象物検出装置において、前記複数の弱判別器は、さらに、ブースティングの学習手法により決定された順番で接続されてなるものであってもよい。
本発明のプログラムは、コンピュータを、入力画像における複数の異なる対象物を検出する複数対象物検出手段として機能させるためのプログラムであって、該コンピュータを、前記入力画像から切り出された所定の大きさの部分画像について輝度分布に係る特徴量を算出し、多次元ヒストグラム(N(N≧3)種類の異なる所定の対象物の該種類毎に、該所定の対象物を表す複数の異なるサンプル画像の各々について前記特徴量を求めて該特徴量の値のヒストグラムを得、得られたN個のヒストグラムの各々と、N−1次元空間において大きさが同一で等方性を有する所定のN個の基底ベクトルの各々とを1つずつ対応させて、各前記ヒストグラムにおける各頻度を該ヒストグラムに対応する基底ベクトルと線形に結合してベクトル化し、前記N個のヒストグラム間で互いに対応する前記特徴量の値に対する頻度のベクトル同士をそれぞれ合成して得られたN−1次元の多次元ヒストグラム)に基づいて、前記部分画像について算出された特徴量の値に対する前記多次元ヒストグラム上のベクトルを選択する、複数の弱判別器と、前記入力画像上の複数の異なる位置において前記所定の大きさの部分画像を切り出す部分画像切出し手段と、前記部分画像の各々に対して、該部分画像に前記複数の弱判別器のうち少なくとも1つを適用して該弱判別器によって選択されたベクトルを合成し、該合成されたベクトルの前記各基底ベクトルの成分を、前記部分画像が該各基底ベクトルに対応する前記対象物である蓋然性を示すスコアとしてそれぞれ抽出し、該各スコアの大小に基づいて、前記部分画像が前記N種類の対象物のうちのいずれであるかを判別する判別処理を施す判別手段として機能させるためのものである。
本発明のプログラムにおいて、前記複数の弱判別器は、該各弱判別器を直列に接続してなるものであり、前記判別手段は、前記部分画像に前記弱判別器を先頭から順次適用して該弱判別器によって選択されたベクトルを累積して合成してゆき、該合成されたベクトルに基づいて抽出されたスコアのうちのいずれかが所定の閾値を超えたときに、前記部分画像が該閾値を超えたスコアに対応する前記対象物であると判別するものであってもよい。
また、本発明のプログラムにおいて、前記複数の弱判別器は、多数の弱判別器の中からブースティングの学習手法により選定されたものであってもよい。
また、本発明のプログラムにおいて、前記複数の弱判別器は、さらに、ブースティングの学習手法により決定された順番で接続されてなるものであってもよい。
本発明は、GentleAdaBoostの手法を複数のオブジェクトを判別する判別器へ拡張したものであり、以下、弱判別器の現行のヒストグラムの性質の再考と、複数オブジェクトへの拡張について説明する。
まず、対数尤度とGentleAdaBoostとのそれぞれについて、ヒストグラムの重み(点数)の式の性質を調べ、両者の一致点、相違点について考える。
対数尤度を用いる場合、ヒストグラムの重みは次式(1)で与えられる。
Figure 0004588575
一方、GentleAdaBoostにおけるヒストグラムの重みは次式(2)で与えられる。
Figure 0004588575
ここで、式(1)を変形すると次式(1)′を得る。
Figure 0004588575
また、式(2)を変形すると次式(2)′を得る。
Figure 0004588575
式(1)′と(2)′とでは、両式とも2項からなる引き算で表される点で一致する。そして、両式は各項が対数がとられるか否かで相違する。各項の取り得る値の範囲は0から1であることから、式(1)′は式(2)′の変動を指数関数的に強調していると捉えることも可能である。
式(1)′と式(2)′とのそれぞれの性質の共通点で特筆すべき点は、両式ともに、W+=W-のとき0となる点である。これは、学習データの判別結果、顔と非顔が同数である場合は判別能力がないということを意味している。対数の有無は、W+=W-でない場合に、点数のつけ方のさじ加減が異なるだけであると捉えることもできる。
上記において、式(1)と式(2)とを比較することで、両式ともに「W+=W-のとき重みが0となる」ことに到達したが、今度は逆に、
Figure 0004588575
を出発点として、ヒストグラムの概念を、複数オブジェクトを扱えるように拡張することについて述べる。
簡単のため、3つのオブジェクト(例えば、正面顔、横顔、非顔)について考える。このとき、3つの重みをW1,W2,W3とする。上記(3)を当てはめると、以下のようになる。
「判別の結果、W1=W2=W3となったとき0となる量」
このような量は、正三角形の重心を原点としたときの3つの頂点の位置ベクトル(基底ベクトル)を用いて実現することができる(図14参照)。すなわち、W1=W2=W3のとき、W1〈e1〉+W2〈e2〉+W3〈e3〉=(0,0)となる。基底ベクトルは、位置、大きさについて任意性があるが、基底ベクトルの大きさを1とし、ひとつの基底ベクトルをx軸上に置いて、それをバックグラウンドのオブジェクト(非顔等)の基底ベクトルとすると、カスケードの際に都合がよいと思われる。基底ベクトル〈e1〉,〈e2〉,〈e3〉は以下に掲げる性質がある。
Figure 0004588575
式(4−1)は、判別器作成のための条件(式(3))を表している。式(4−2)は、各基底ベクトルの等方性、すなわち、各基底ベクトルは他の基底ベクトルに対して等しい重みとなることを表している。式(4−3)は、2つの基底ベクトルの差(辺に相当)は他の基底ベクトルに直交することを表している。
この方法を用いると、ヒストグラムは2次元的に拡張されることになる。このため、判別スコアも2つの成分を持った2次元のベクトル〈s〉となる(図15参照)。このとき、各オブジェクトのスコアSCiは、スコアベクトル〈s〉と各オブジェクトの基底ベクトル〈ei〉との内積によって与えられる(図2,式(5))。
Figure 0004588575
上記の考え方は、3体以上の問題に対しても容易に拡張できる。すなわち、N体問題に適用するためには、N−1次元空間の最も単純な正凸多面体(simplex)の重心を原点として、各頂点の位置ベクトルを基底ベクトルとすればよい。ここで、simplexとは幾何学的な図形で、N次元ではN+1個の点(頂点)とそれらを結ぶ辺、面からなる多面体である(Numerical Recipes in C 日本語版p.295)。これらの基底ベクトルを、〈e1〉,〈e2〉,・・・,〈en〉とすると、式(4−1),(4−2),(4−3)は、下記のように一般化される。
Figure 0004588575
下記に2体から5体までの基底ベクトルの具体例を示す。なお、次元数が増えても、これらは簡単なアルゴリズムによって機械的に求めることができる。
Figure 0004588575
以上から、N種類(N≧3)の対象物を検出する場合には、N−1次元空間における頂点数がN個の正凸多面体の重心を原点とし、その頂点の位置ベクトルを〈ei〉として、次式により弱判別器の判別基準となる多次元ヒストグラム〈h(x)〉を作成すればよい。
Figure 0004588575
また、判別器の学習は、以下のように行えばよい。
M個のサンプル画像の各々における、特徴量xiとその正解に対応する基底ベクトル〈ei〉の組合せ(x1,〈e1〉),…,(xM,〈eM〉)が与えられているとする(ただし、〈ei〉=〈e1〉,〈e2〉,…,〈eN〉のうちいずれか)。
まず、次式にしたがって、サンプル画像の重みを初期化する。
Figure 0004588575
次に、下記ルーチン処理を行う。
Figure 0004588575
本発明のデジタル画像の複数対象物検出方法および装置並びにそのためのプログラムによれば、入力画像上の異なる位置で切出された部分画像に対して、所定の対象物を表す複数のサンプル画像の各々について算出された特徴量の値のヒストグラムを基準として、対象画像が所定の対象物を表す画像であるか否かを評価する弱判別器を複数用いて、上記部分画像が所定の対象物であるか否かを判別することにより、入力画像における検出対象物を検出する方法において、上記ヒストグラムを多次元に拡張し、弱判別器の上記評価の基準を、複数の異なる対象物に対するヒストグラムをベクトルで表現した多次元ヒストグラムとしているので、部分画像から算出された特徴量の値に対応する上記多次元ヒストグラム上のベクトルの向きと大きさを評価することにより、当該部分画像が上記複数の対象物のうちのいずれであるかを1度に判別することができ、これにより、入力画像からの部分画像の切出しと判別を、入力画像上を1度走査して実施するだけで複数の対象物を検出することができ、効率のよい複数対象物の検出が可能となる。
以下、本発明の実施形態について説明する。ここで説明する実施形態は、本発明の複数対象物検出方法が適用された顔検出システムであり、デジタル画像中に含まれる顔を、その顔の向き(アウトプレーン方向)、画像上の位置、顔の大きさ、顔の回転方向(天地方向;インプレーン方向)によらず検出するものである。
図1は本顔検出システム1の構成を示す概略ブロック図である。顔検出システム1は、図1に示すように、顔を検出する対象となる入力画像S0を多重解像度化して解像度の異なる複数の画像(以下、解像度画像という)からなる解像度画像群S1(=S1_1,S1_2,・・・,S1_n)を得る多重解像度化部10と、解像度画像群S1の各々対して、解像度画像が後述の顔検出処理に適した階調の画像となるように画素値を変換する正規化処理を施し、正規化済みの解像度画像群S1′(=S1′_1,S1′_2,・・・,S1′_n)を得る正規化部20と、正規化済みの解像度画像群S1′の各々に対して顔検出処理を施すことにより、解像度画像群S1′の各解像度画像に含まれる顔を表す画像(以下、顔画像という)S2を検出する顔検出部30と、各解像度画像上で検出された顔画像S2の各々について、同一の顔が重複して検出されたものであるか否かをその位置関係から判定して整理し、重複検出のない顔画像S3を得る重複検出判定部40とを備える。
多重解像度化部10は、入力画像S0の解像度(画像サイズ)を変換することにより、その解像度を所定の解像度、例えば、短辺が416画素の矩形サイズの画像に規格化し、規格化済みの入力画像S0′を得る。そして、この規格化済みの入力画像S0′を基本としてさらに解像度変換を行うことにより、解像度の異なる複数の解像度画像を生成し、解像度画像群S1を得る。このような解像度画像群を生成する理由は、通常、入力画像に含まれる顔の大きさは不明であるが、一方、検出しようとする顔の大きさ(画像サイズ)は、後述の判別器の生成方法と関連して一定の大きさに固定されるため、大きさの異なる顔を検出するためには、解像度の異なる画像上で位置をずらしながら所定サイズの部分画像をそれぞれ切り出し、その部分画像が顔か非顔かを判別してゆく必要があるためである。具体的には、図2に示すように、規格化済みの入力画像S0′を基本となる解像度画像S1_1とし、解像度画像S1_1に対して2の−1/3乗倍サイズの解像度画像S1_2と、解像度画像S1_2に対して2の−1/3乗倍サイズ(基本画像S1_1に対しては2の−2/3乗倍サイズ)の解像度画像S1_3とを先に生成し、その後、解像度画像S1_1,S1_2,S1_3のそれぞれを1/2倍サイズに縮小した解像度画像を生成し、それら縮小した解像度画像をさらに1/2倍サイズに縮小した解像度画像を生成する、といった処理を繰り返し行い、複数の解像度画像を所定の数だけ生成するようにする。このようにすることで、輝度を表す画素値の補間処理を必要としない1/2倍の縮小処理を主な処理とし、基本となる解像度画像から2の−1/3乗倍ずつサイズが縮小された複数の画像が高速に生成できる。例えば、解像度画像S1_1が短辺416画素の矩形サイズである場合、解像度画像S1_2,S1_3,・・・は、短辺がそれぞれ、330画素,262画素,208画素,165画素,131画素,104画素,82画素,65画素,・・・の矩形サイズとなり、2の−1/3乗倍ずつ縮小された複数の解像度画像を生成することができる。なお、このように画素値を補間しないで生成される画像は、元の画像パターンの特徴をそのまま担持する傾向が強いので、顔検出処理において精度向上が期待できる点で好ましい。
正規化部20は、解像度画像群S1の各々に対して正規化処理を施すものであるが、具体的には、例えば、画素値をsRGB空間におけるいわゆる逆ガンマ変換(=2.2乗する)した後にさらに対数をとるような変換曲線(ルックアップテーブル)にしたがって、画像全体における画素値を変換する処理を考えることができる。これは、次のような理由による。
画像として観測される光強度Iは、通常、被写体の反射率Rと光源の強度Lの積として表現される(I=R×L)。したがって、光源の強度Lが変化すると、画像として観測される光強度Iも変化することになるが、被写体の反射率Rのみを評価することができれば、光源の強度Lに依存しない、すなわち、画像の明るさの影響を受けない精度の高い顔判別を行うことができる。
ここで、光源の強度がLの場合において、被写体上で反射率がR1の部分から観測される光強度をI1、被写体上で反射率がR2の部分から観測される光強度をI2としたとき、それぞれの対数をとった空間では、下記の式が成り立つ。
Figure 0004588575
すなわち、画像における画素値を対数変換することは、反射率の比が差として表現された空間へ変換することとなり、このような空間では、光源の強度Lに依存しない被写体の反射率のみを評価することが可能となる。言い換えると、画像中の明るさによって異なるコントラスト(ここでは画素値の差分そのもの)を揃えることができる。
一方、一般的なデジタルカメラ等の機器で取得された画像の色空間はsRGBである。sRGBとは、機器間の色再現の違いを統一するために、色彩、彩度等を規定・統一した国際標準の色空間のことであり、この色空間においては、ガンマ値(γout)が2.2の画像出力機器において適正な色再現を可能にするため、画像の画素値は、入力輝度を1/γout(=0.45)乗して得られる値となっている。
そこで、画像全体における画素値を、いわゆる逆ガンマ変換(すなわち、もとの画素値を2.2乗する)をした後にさらに対数をとるような変換曲線にしたがって変換し、その変換済みの画像において所定の複数点間の画素値の差分を評価することにより、光源の強度に依存しない被写体の反射率のみによる評価を適正に行うことができるようになる。
顔検出部30は、正規化部20により正規化処理がなされた解像度画像群S1′の各々に対して顔検出処理を施し、各解像度画像における顔画像S2を検出するものであり、さらに複数の要素から構成されている。すなわち、顔検出部30は、後述の各部を制御して顔検出処理におけるシーケンス制御を主に行う検出制御部31と、解像度画像群S1′の中から顔検出処理に供する解像度画像をサイズの小さいものから順に順次選択する解像度画像選択部32と、解像度画像選択部32により選択された解像度画像において、顔画像であるか否かの判別対象となる部分画像Wを切り出すサブウィンドウを、その位置をずらしながら順次設定するサブウィンドウ設定部33と、その切り出された部分画像Wが顔画像であるか否かを判別する判別器34から構成されている。
検出制御部31は、解像度画像群S1′の各画像に対して顔検出処理を行うべく、解像度画像選択部32およびサブウィンドウ設定部33を制御するものである。例えば、適宜、解像度画像選択部32に対して解像度画像の選択を指示したり、サブウィンドウ設定部33に対してサブウィンドウの設定条件を指示したり、また、得られた検出結果を重複検出判定部40に出力したりする。
解像度画像選択部32は、検出制御部31の制御により、解像度画像群S1′の中から顔検出処理に供する解像度画像をサイズの小さい順に(解像度の粗い順に)順次選択するものである。なお、本実施形態における顔検出の手法が、各解像度画像上で順次切り出された同じサイズの部分画像Wについてその部分画像Wが顔画像であるか否かを判別することにより入力画像S0における顔を検出する手法であるから、この解像度画像選択部32は、入力画像S0における検出すべき顔の大きさを毎回変えながら設定するものであって、検出すべき顔の大きさを大から小へ変えながら設定するものと同等なものということができる。
サブウィンドウ設定部33は、検出制御部31により設定されたサブウィンドウ設定条件に基づいて、解像度画像選択部32により選択された解像度画像上でサブウィンドウを移動させながら順次設定する。例えば、上記の選択された解像度画像において、所定のサイズすなわち32×32画素サイズの部分画像Wを切り出すサブウィンドウを、この解像度画像上を2次元的に走査するライン上の各位置において解像度画像を画像平面上で360度回転させながら順次設定する。そして、その順次切り出された部分画像Wを判別器34へ入力する。
判別器34は、部分画像Wの画素値(輝度)の分布に係る少なくとも1つの特徴量として、所定の複数点間の画素値の差分に係る特徴量を算出し、この特徴量を用いてこの部分画像Wが所定のいずれかの向きにある顔であるかもしくは非顔であるかを判別するものであり、例えば、正面顔、左横顔、右横顔、右斜め顔、および左斜め顔の計5種類の向きの顔について判別するものとすることができる。もちろん、この顔の向きはさらに細かく分けることもできる。判別器34は、このように、任意の向きの顔を表す顔画像を判別するものであるから、あらゆる向きおよび天地方向にある顔の顔画像を判別することが可能となる。
ここで、判別器34の構成および学習方法、判別器34における処理の流れついて説明する。なお、ここでは、説明を簡単にするため、判別器34は、部分画像Wを、「正面顔」、「横顔」、「非顔」の3種類の対象物(オブジェクト)に分離・判別する場合、すなわち、3クラス問題として考える。
図3は、判別器34の構成を示す図である。判別器34は、図3に示すように、複数の弱判別器WCからなり、判別器34の後述の学習により多数の弱判別器WCの中から選定された判別に有効な弱判別器WCをその有効な順に接続したものである。
弱判別器WCは、それぞれ、部分画像Wから弱判別器毎に固有の所定のアルゴリズムにしたがって特徴量を算出し、その特徴量と後述の自己の2次元ヒストグラムとに基づいて、部分画像Wが「正面顔」であることの蓋然性、「横顔」であることの蓋然性、および「非顔」であることの蓋然性をまとめて示す1つのスコアベクトル〈s〉を求めるものである。判別器34は、これら複数の弱判別器WCの全部または一部から得られたスコアベクトル〈s〉を評価して、部分画像Wが「正面顔」「横顔」「非顔」のいずれであるかを判別する。
次に、判別器34の学習について説明する。
図8は判別器34の学習方法を示すフローチャートである。判別器34の学習には、所定のサイズ、例えば32×32画素サイズで規格化されたサンプル画像を用いる。サンプル画像の種類は、判別したいクラスの数に応じて用意する必要があるが、本実施形態においては、正面顔を表す複数の正面顔サンプル画像と、横顔を表す複数の横顔サンプル画像と、非顔を表す複数の非顔サンプル画像とを用意する。正面顔サンプル画像と横顔サンプル画像は、それぞれ顔の天地方向が略揃ったものを用いる。なお、これらのサンプル画像は、前もって、前述の正規化部20による正規化処理と同様の処理が施されている。また、これら各サンプル画像には、重み、すなわち、重要度が割り当てられる。
まず、サンプル画像の数をMとすると、すべてのサンプル画像の重みw1(i)(ここで、i=1,・・・,M)の初期値が等しく1/Mに設定される(ステップS21)。
Figure 0004588575
次に、サンプル画像およびその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなるペア群を複数種類設定したときの、この複数種類のペア群のそれぞれについて弱半別器WCが作成される(ステップS22)。ここで、それぞれの弱判別器WCとは、サブウィンドウWで切り出された部分画像とその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなる1つのペア群を設定したときの、この1つのペア群を構成する各ペアにおける2点間の画素値(輝度)の差分値の組合せを用いて、部分画像Wが正面顔、横顔、非顔のいずれであるかを判別する基準を提供するものである。本実施形態においては、1つのペア群を構成する各ペアにおける2点間の画素値の差分値の組合せについての多次元ヒストグラムを弱判別器のスコアテーブルの基礎として使用する。
ここで、図11,12を参照しながらある弱判別器WCの作成方法について説明する。図11の左側のサンプル画像に示すように、この弱判別器WCを作成するためのペア群を構成する各ペアの2点は、正面顔を表す複数のサンプル画像において、サンプル画像上の右目の中心にある点をP1、右側の頬の部分にある点をP2、眉間の部分にある点をP3、サンプル画像を4近傍画素平均で縮小した16×16画素サイズの縮小画像上の右目の中心にある点をP4、右側の頬の部分にある点をP5、さらに4近傍画素平均で縮小した8×8画素サイズの縮小画像上の額の部分にある点をP6、口の部分にある点をP7として、P1−P2、P1−P3、P4−P5、P4−P6、P6−P7の5ペアである。なお、ある弱判別器WCを作成するための1つのペア群を構成する各ペアの2点の座標位置はすべてのサンプル画像において同一である。そして正面顔を表すすべてのサンプル画像について上記5ペアを構成する各ペアの2点間の画素値の差分値の組合せが求められ、そのヒストグラムW1(x)が作成される。ここで、xは各ペアの2点間の差分値の組合せに対応する値である。画素値の差分値の組合せとしてとり得る値は、画像の輝度階調数に依存するが、仮に16ビット階調である場合には、1つの画素値の差分値につき65536通りあり、全体では階調数の(ペア数)乗、すなわち65536の5乗通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、画素値の差分値を適当な数値幅で区切って量子化し、n値化する(例えばn=100)。これにより、画素値の差分値の組合せの数はnの5乗通りとなるため、画素値の差分値の組合せを表すデータ数を低減できる。
同様に、横顔サンプル画像についてのヒストグラムW2(x)と、非顔サンプル画像についてのヒストグラムW3(x)が作成される。なお、横顔サンプル画像と非顔サンプル画像については、正面顔サンプル画像上における上記各ペアの所定の2点の位置に対応する位置(同様に参照符号P1からP7を用いる)が用いられる。
これらの3つのヒストグラムW1(x),W2(x),W3(x)を、次式により合成したものが、図12に示す2次元ヒストグラムである。
Figure 0004588575
ここで、ベクトル〈h(x)〉は2次元ヒストグラム、ベクトル〈e1〉,〈e2〉,〈e3〉は基底ベクトルを表す。
この弱判別器WCの2次元ヒストグラムh(x)は、ある画像の特徴量の組合せに対応する値がxである場合におけるスコアベクトル〈s〉そのものであり、このスコアベクトル〈s〉と基底ベクトル〈e1〉との内積が正面顔である蓋然性を示すスコアSC1、スコアベクトル〈s〉と基底ベクトル〈e2〉との内積が横顔である蓋然性を示すスコアSC2、スコアベクトル〈s〉と基底ベクトル〈e3〉との内積が非顔である蓋然性を示すスコアSC3に対応することとなる。ステップS22では、判別に使用され得る複数種類のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せについて、上記のヒストグラム形式の複数の弱判別器WCが作成される。
続いて、ステップS22で作成した複数の弱半別器WCのうち、画像の判別に最も有効な弱判別器WCが選択される。最も有効な弱判別器WCの選択は、各サンプル画像の重みを考慮して行われる。この例では、各弱判別器WCの重み付き優位度が比較され、最も高い重み付き優位度を示す弱判別器WCが選択される(ステップS23)。すなわち、1回目のステップ23では、各サンプル画像の重みが1/Mと等しいため、弱判別器WCによって算出される正面顔、横顔、非顔のそれぞれのスコアのうち正解である対象物に対するスコアが、他の不正解である対象物に対するスコアより大きいほど優位性があるとみなし、各サンプル画像についての総合的な優位度が最も高いものが、最も有効な弱判別器WCとして選択される。一方、後述するステップS25において各サンプル画像の重みが更新された後の2回目のステップS23では、重みが1/Mのサンプル画像、重みが1/Mよりも大きいサンプル画像、および重みが1/Mよりも小さいサンプル画像が混在しており、重みが1/Mよりも大きいサンプル画像は、優位性の評価において、重みが1/Mのサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS23では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく判別されることに、より重点が置かれる。具体的には、次式にしたがって、最も優位性の高い弱判別器WCを示す2次元ヒストグラム〈hk(x)〉を抽出する。ここで、kは、ステップS23を実行する回数目を表す。
Figure 0004588575
ここで、Xiは、各サンプル画像から求められる特徴量の組合せに対応する値、ベクトル〈ei〉は、そのサンプル画像が正面顔、横顔、非顔のうちの正解である対象物に対応する基底ベクトル、ベクトル〈ej〉は、その他の不正解である対象物に対応する基底ベクトルを表している。
次に、それまでに選択した弱判別器WCによって算出される、各サンプル画像についての正面顔、横顔、非顔のそれぞれのスコアのうち正解である対象物に対するスコアの合計が、他の不正解である対象物に対するスコアの合計より大きいか否か、あるいは、ステップ23が所定回数実行されたか否かが確かめられる(ステップS24)。具体的には、次式の条件を満たすか否かを確かめる。
Figure 0004588575
ここで、Kは現時点でのステップ23の実行回数目を表す。上記の条件を満たす場合は、それまでに選択した弱判別器WCを用いれば画像が正面顔、横顔、非顔のいずれであるかを十分に高い確率で判別できるため、学習は終了する。上記の条件を満たさない場合は、それまでに選択した弱判別器と組み合わせて用いるための追加の弱判別器WCを選択するために、ステップS26へと進む。
ステップS26では、直近のステップS23で選択された弱判別器WCが再び選択されないようにするため、その弱判別器WCが除外される。
次に、直近のステップS23で選択された弱判別器WCでは正面顔、横顔、非顔のスコアを、優位性を持って算出することができなかったサンプル画像の重みが大きくされ、優位性を持って算出することができたサンプル画像の重みが小さくされる(ステップS25)。具体的には、次式にしたがって、各サンプル画像の重みが更新される。
Figure 0004588575
すなわち、正解である対象物のスコア(例えばオブジェクト2が正解の場合、〈hk〉・〈e2〉で表される内積)が大きければ、重みは減少することが原則であり、このスコアが負の場合には重みは増加する(上記式における分子の第2項)。しかし、図13に示すように、正解である対象物(図中のオブジェクト2)のスコアとそれ以外の対象物(図中のオブジェクト1)のスコアが同時に正となることもありうる。そこで、それらの対象物を判別するのに適した方向(〈e1〉−〈e2〉:辺)に射影した量を重みの更新に用いる。このように重みを大小させる理由は、次の弱判別器WCの選択において、既に選択された弱判別器WCでは優位性を持ったスコアが算出できなかった画像を重要視し、それらの画像について優位性を持ったスコアを算出することができる弱判別器WCが選択されるようにして、弱判別器WCの組合せの効果を高めるためである。
続いて、ステップS23へと戻り、上記したように重み付き優位度を基準にして次に有効な弱判別器WCが選択される。
以上のステップS23からS26を繰り返して、正面顔、横顔、非顔のいずれであるかを判別するのに適した弱判別器WCとして、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せに対応する弱判別器WCが選択されたところで、ステップS24で所定の条件を満たすことが確認されると、判別に用いる弱判別器WCの種類と判別条件とが確定され(ステップS27)、これにより学習を終了する。なお、選択された弱判別器WCは、その重み付き優位度が高い順に線形結合され、判別器34が構成される。各弱判別器WCについてそれぞれ得られた2次元ヒストグラムは、画素値の差分値の組合せに応じて、正面顔、横顔、非顔それぞれについてのスコアを算出するためのスコアベクトルとなる。
次に、判別器34における処理の流れについて説明する。
図4は、判別器34における処理の流れを示すフローチャートである。部分画像Wが判別器34に入力されると、第1番目の弱判別器WCにおいて特徴量xが算出される(ステップS1)。例えば、図5に示すように、所定のサイズ、例えば、32×32画素サイズの部分画像Wに対して、4近傍画素平均(画像を2×2画素サイズ毎に複数のブロックに区分し、各ブロックの4画素における画素値の平均値をそのブロックに対応する1つの画素の画素値とする処理)を段階的に行うことにより、16×16画素サイズの画像と、8×8画素サイズの縮小した画像を得、もとの画像を含めたこれら3つの画像の平面内に設定される所定の2点を1ペアとして、複数種類のペアからなる1つのペア群を構成する各ペアにおける2点間の画素値(輝度)の差分値をそれぞれ計算し、これらの差分値の組合せを特徴量とする。各ペアの所定の2点は、例えば、画像上の顔の濃淡の特徴が反映されるよう決められた縦方向に並んだ所定の2点や、横方向に並んだ所定の2点とする。そして、特徴量である差分値の組合せに対応する値をxとして算出する。次に、その値xに応じて自己の2次元ヒストグラムからスコアベクトル〈s〉が求められる(ステップS2)。次に、1つ前の弱判別器WCから引き渡されたスコアベクトルにそのスコアベクトル〈s〉を加算して累積スコアベクトル〈ss〉を算出するのであるが、第1番目の弱判別器WCの場合には、引き渡されるスコアベクトルが存在しないので、この場合には、求めたスコアベクトル〈s〉をそのまま累積スコアベクトル〈ss〉とする(ステップS3)。次に、その累積スコアベクトル〈ss〉と基底ベクトル〈e1〉との内積を、部分画像Wが「正面顔」であることの蓋然性を示すスコアSC1として、累積スコアベクトル〈ss〉と基底ベクトル〈e2〉との内積を、部分画像Wが「横顔」であることの蓋然性を示すスコアSC2として、累積スコアベクトル〈ss〉と基底ベクトル〈e3〉との内積を、部分画像Wが「非顔」であることの蓋然性を示すスコアSC3として、それぞれ算出する(ステップS4)。そして、各スコアSC1、SC2、SC3のうちいずれかが予め決められた所定の閾値を超えたか否かを判定する(ステップS5)。すなわち、SC1>Th1、SC2>Th2、SC3>Th3のいずれかの条件を満たすか否かを判定する。この条件を満たすと判定された場合には、SC1>Th1のときに部分画像Wが「正面顔」であると判別し、SC2>Th2のときに部分画像Wが「横顔」であると判別し、SC3>Th3のときには部分画像Wが「非顔」であると判別し、処理を終了する(ステップS6)。一方、ステップS5において、上記の条件を満たさないと判定された場合には、次の弱判別器WCがあるか否かを判定し(ステップS7)、ここで、次の弱判別器WCがあると判定されたときには、累積スコアベクトル〈ss〉を次の弱判別器WCに引き渡して、その次の弱判別器WCの処理に移行する(ステップS9)。一方、ステップS7において、次の弱判別器WCがないと判定された場合には、部分画像Wは、算出されたスコアの中で最も高いスコアに対応する対象物であると判別して処理を終了する(ステップS8)。
重複検出判定部40は、顔検出部30によって検出された真の顔画像S2の位置情報に基づいて、解像度画像群S1′の各解像度画像上で検出された顔画像のうち同一の顔を表す画像、すなわち重複して検出された顔画像をそれぞれ1つの顔画像としてまとめる処理を行い、入力画像S0において検出された真の顔画像S3を出力する。判別器は、学習方法にもよるが、一般的に部分画像Wのサイズに対して検出できる顔の大きさにはある程度幅があるので、解像度レベルが隣接する複数の解像度画像において、同一の顔を表す画像が重複して検出される場合があるからである。
なお、本実施形態において、サブウィンドウ設定部33は本発明の部分画像切出し手段として機能し、判別器34は本発明の判別手段として機能する。
次に、顔検出システム1における処理の流れについて説明する。
図7は、上記顔検出システムにおける処理の流れを示したフローチャートである。図7に示すように、多重解像度化部10に入力画像S0が供給されると(ステップS11)、この入力画像S0の画像サイズが所定のサイズに変換された画像S0′が生成され、この画像S0′から2の−1/3乗倍ずつサイズ(解像度)が縮小された複数の解像度画像からなる解像度画像群S1が生成される(ステップS12)。そして、正規化部20において、解像度画像群S1の各々に対し、画像全体のコントラストのばらつきを抑制する正規化処理を施し、正規化済みの解像度画像群S1′が得られる(ステップS13)。顔検出部30においては、検出制御部31からの指示を受けた解像度画像選択部32により、解像度画像群S1′の中から画像サイズの小さい順、すなわち、S1′_n,S1′_n−1,・・・,S1′_1の順に所定の解像度画像S1′_iを選択する(ステップS14)。次に検出制御部31が、サブウィンドウ設定部33に対して、サブウィンドウ設定条件を設定する。これにより、サブウィンドウ設定部33は、解像度画像S1′_i上でサブウィンドウを走査しながら設定して所定サイズの部分画像Wを順次切り出し(ステップS15)、その部分画像Wを判別器34へ入力する(ステップS16)。判別器34は、入力された部分画像Wが上記の5種類の向きの顔のいずれかであるか否かを判別し、検出制御部31がその判別結果Rを取得する(ステップS17)。そして、検出制御部31は、現在切り出された部分画像Wが最後の順番に位置する部分画像であるか否かを判定し(ステップS18)、部分画像Wが最後の部分画像であると判定された場合には、次のステップS19へ移行し、部分画像Wが最後の部分画像でないと判定された場合には、ステップS15に戻って新たな部分画像Wが切り出される。このようにして解像度画像S1′_iについての顔画像を検出する。
1つの解像度画像における顔画像の検出が終了すると、検出制御部31は、現在選択されている解像度画像S1′_iが最後の順番に位置する画像であるか否かを判定し(ステップS18)、最後の解像度画像であると判定された場合には、検出処理を終了し、重複検出判定に移行する(ステップS19)。一方、最後の解像度画像ではないと判定された場合には、ステップS4に戻り、解像度画像選択部32により、現在選択されている解像度画像S1′_iより1段階サイズが大きい解像度画像S1′_i−1が選択され、さらに顔画像の検出が実行される。
このように、ステップS14からS19までの処理を繰り返すことにより、各解像度画像における顔画像S2を検出することができる。図6は、解像度画像がサイズの小さい順に選択されて顔検出が実施される様子を示した図である。
ステップS20では、重複検出判定部40により、真の顔画像S2のうち重複して検出された顔画像をそれぞれ1つの顔画像としてまとめる処理を行い、入力画像S0において検出された真の顔画像S3を出力する。
このように、本発明の実施形態に係る顔検出システムによれば、入力画像上の異なる位置で切出された部分画像に対して、所定の対象物、すなわち、所定の顔を表す複数のサンプル画像の各々について算出された特徴量の値のヒストグラムを基準として、対象画像が所定の顔を表す画像であるか否かを評価する弱判別器を複数用いて、上記部分画像が所定の顔であるか否かを判別することにより、入力画像における検出対象となる顔を検出する方法において、上記ヒストグラムを多次元に拡張し、弱判別器の上記評価の基準を、複数の異なる種類の顔に対するヒストグラムをベクトルで表現した多次元ヒストグラムとしているので、部分画像から算出された特徴量の値に対応する上記多次元ヒストグラム上のベクトルの向きと大きさを評価することにより、当該部分画像が上記複数の異なる種類の顔のうちのいずれであるかを1度に判別することができ、これにより、入力画像からの部分画像の切出しと判別を、入力画像上を1度走査して実施するだけで複数の異なる種類の顔を検出することができ、効率のよい複数種類の顔検出が可能となる。
また、判別器の学習に関しても、1度の学習で複数の検出対象、すなわち、複数種類の顔を学習することができ、効率のよい学習作業を行うことができる。
すなわち、例えば、A,B,Cの3つのオブジェクトを完全に判別するためには、2体問題の判別器は、AB判別用、BC判別用、AC判別用の3つが必要である。それぞれは、1次元のヒストグラムであるから、合計3次元分のヒストグラムが必要である。一方、本発明による方法では、ヒストグラムは2次元分で足りる。一般に、N体問題を2体問題の判別器で完全に対応するには、ヒストグラムは合計コンビネーション(NC2)次元分必要である。一方、本発明による方法では、N−1次元分で充分である。
もちろん、ヒストグラムの総量は次元数だけでなく、弱判別器の数に依存することも考慮しなくてはならない。しかし、コンビネーション(NC2)がNのべき乗に比例して増加するのに対し、N−1はNの線形増加であるから、Nの数が多い場合には、弱判別器によるヒストグラムの総量の増加分を吸収できると思われる。
以上、本発明の実施形態に係る顔検出システムについて説明したが、この顔検出システムのうちの本発明の顔検出装置に対応する部分における各処理をコンピュータに実行させるためのプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。
顔検出システムの構成を示すブロック図 検出対象画像の多重解像度化の工程を示す図 判別器の構成を示すブロック図 判別器における処理フローを示す図 弱判別器における特徴量の算出を説明するための図 顔検出対象となる解像度画像の切替えとその画像上でのサブウィンドウの移動を説明するための図 顔検出システムにおける処理の流れを示すフローチャート 判別器の学習方法を示すフローチャート 弱判別器における従来の2クラス問題でのヒストグラムを示す図 画像が所定の対象物であるか否かの判別基準と用いるヒストグラムを示す図 サンプル画像の種類別にヒストグラムが生成される様子を示す図 多次元ヒストグラムを示す図 正解の対象物のスコアと非正解の対象物のスコアとが同時に正となる場合を示す図 基底ベクトルを示す図 スコアベクトルを示す図
符号の説明
1 顔検出システム
10 多重解像度化部
20 正規化部
30 顔検出部
31 検出制御部
32 解像度画像選択部
33 サブウィンドウ設定部(部分画像切出し手段)
34 判別器(判別手段)
40 重複検出判定部
WC 弱判別器

Claims (12)

  1. 入力画像における複数の異なる対象物を検出する複数対象物検出方法であって、
    前記入力画像から切り出された所定の大きさの部分画像について輝度分布に係る特徴量を算出し、
    N(N≧3)種類の異なる所定の対象物の該種類毎に、該所定の対象物を表す複数の異なるサンプル画像の各々について前記特徴量を求めて該特徴量の値のヒストグラムを得、得られたN個のヒストグラムの各々と、N−1次元空間において大きさが同一で等方性を有する所定のN個の基底ベクトルの各々とを1つずつ対応させて、各前記ヒストグラムにおける各頻度を該ヒストグラムに対応する基底ベクトルと線形に結合してベクトル化し、前記N個のヒストグラム間で互いに対応する前記特徴量の値に対する頻度のベクトル同士をそれぞれ合成して得られたN−1次元の多次元ヒストグラムに基づいて、前記部分画像について算出された特徴量の値に対する前記多次元ヒストグラム上のベクトルを選択する、複数の弱判別器を用意するステップと、
    前記入力画像上の複数の異なる位置において前記所定の大きさの部分画像を切り出すステップと、
    前記部分画像の各々に対して、該部分画像に前記複数の弱判別器のうち少なくとも1つを適用して該弱判別器によって選択されたベクトルを合成し、該合成されたベクトルの前記各基底ベクトルの成分を、前記部分画像が該各基底ベクトルに対応する前記対象物である蓋然性を示すスコアとしてそれぞれ抽出し、該各スコアの大小に基づいて、前記部分画像が前記N種類の対象物のうちのいずれであるかを判別する判別処理を施すステップとを有することを特徴とする複数対象物検出方法。
  2. 前記複数の弱判別器が、該各弱判別器を直列に接続してなるものであり、
    前記判別処理を施すステップが、前記部分画像に前記弱判別器を先頭から順次適用して該弱判別器によって選択されたベクトルを累積して合成してゆき、該合成されたベクトルに基づいて抽出されたスコアのうちのいずれかが所定の閾値を超えたときに、前記部分画像が該閾値を超えたスコアに対応する前記対象物であると判別するステップであることを特徴とする請求項1記載の複数対象物検出方法。
  3. 前記複数の弱判別器が、多数の弱判別器の中からブースティングの学習手法により選定されたものであることを特徴とする請求項1または2記載の複数対象物検出方法。
  4. 前記複数の弱判別器が、さらに、ブースティングの学習手法により決定された順番で接続されてなるものであることを特徴とする請求項3記載の複数対象物検出方法。
  5. 入力画像における複数の異なる対象物を検出する複数対象物検出装置であって、
    前記入力画像から切り出された所定の大きさの部分画像について輝度分布に係る特徴量を算出し、
    N(N≧3)種類の異なる所定の対象物の該種類毎に、該所定の対象物を表す複数の異なるサンプル画像の各々について前記特徴量を求めて該特徴量の値のヒストグラムを得、得られたN個のヒストグラムの各々と、N−1次元空間において大きさが同一で等方性を有する所定のN個の基底ベクトルの各々とを1つずつ対応させて、各前記ヒストグラムにおける各頻度を該ヒストグラムに対応する基底ベクトルと線形に結合してベクトル化し、前記N個のヒストグラム間で互いに対応する前記特徴量の値に対する頻度のベクトル同士をそれぞれ合成して得られたN−1次元の多次元ヒストグラムに基づいて、前記部分画像について算出された特徴量の値に対する前記多次元ヒストグラム上のベクトルを選択する、複数の弱判別器と、
    前記入力画像上の複数の異なる位置において前記所定の大きさの部分画像を切り出す部分画像切出し手段と、
    前記部分画像の各々に対して、該部分画像に前記複数の弱判別器のうち少なくとも1つを適用して該弱判別器によって選択されたベクトルを合成し、該合成されたベクトルの前記各基底ベクトルの成分を、前記部分画像が該各基底ベクトルに対応する前記対象物である蓋然性を示すスコアとしてそれぞれ抽出し、該各スコアの大小に基づいて、前記部分画像が前記N種類の対象物のうちのいずれであるかを判別する判別処理を施す判別手段とを備えたことを特徴とする複数対象物検出装置。
  6. 前記複数の弱判別器が、該各弱判別器を直列に接続してなるものであり、
    前記判別手段が、前記部分画像に前記弱判別器を先頭から順次適用して該弱判別器によって選択されたベクトルを累積して合成してゆき、該合成されたベクトルに基づいて抽出されたスコアのうちのいずれかが所定の閾値を超えたときに、前記部分画像が該閾値を超えたスコアに対応する前記対象物であると判別するものであることを特徴とする請求項5記載の複数対象物検出装置。
  7. 前記複数の弱判別器が、多数の弱判別器の中からブースティングの学習手法により選定されたものであることを特徴とする請求項5または6記載の複数対象物検出装置。
  8. 前記複数の弱判別器が、さらに、ブースティングの学習手法により決定された順番で接続されてなるものであることを特徴とする請求項7記載の複数対象物検出装置。
  9. コンピュータを、入力画像における複数の異なる対象物を検出する複数対象物検出手段として機能させるためのプログラムであって、
    該コンピュータを、
    前記入力画像から切り出された所定の大きさの部分画像について輝度分布に係る特徴量を算出し、
    N(N≧3)種類の異なる所定の対象物の該種類毎に、該所定の対象物を表す複数の異なるサンプル画像の各々について前記特徴量を求めて該特徴量の値のヒストグラムを得、得られたN個のヒストグラムの各々と、N−1次元空間において大きさが同一で等方性を有する所定のN個の基底ベクトルの各々とを1つずつ対応させて、各前記ヒストグラムにおける各頻度を該ヒストグラムに対応する基底ベクトルと線形に結合してベクトル化し、前記N個のヒストグラム間で互いに対応する前記特徴量の値に対する頻度のベクトル同士をそれぞれ合成して得られたN−1次元の多次元ヒストグラムに基づいて、前記部分画像について算出された特徴量の値に対する前記多次元ヒストグラム上のベクトルを選択する、複数の弱判別器と、
    前記入力画像上の複数の異なる位置において前記所定の大きさの部分画像を切り出す部分画像切出し手段と、
    前記部分画像の各々に対して、該部分画像に前記複数の弱判別器のうち少なくとも1つを適用して該弱判別器によって選択されたベクトルを合成し、該合成されたベクトルの前記各基底ベクトルの成分を、前記部分画像が該各基底ベクトルに対応する前記対象物である蓋然性を示すスコアとしてそれぞれ抽出し、該各スコアの大小に基づいて、前記部分画像が前記N種類の対象物のうちのいずれであるかを判別する判別処理を施す判別手段として機能させるためのプログラム。
  10. 前記複数の弱判別器が、該各弱判別器を直列に接続してなるものであり、
    前記判別手段が、前記部分画像に前記弱判別器を先頭から順次適用して該弱判別器によって選択されたベクトルを累積して合成してゆき、該合成されたベクトルに基づいて抽出されたスコアのうちのいずれかが所定の閾値を超えたときに、前記部分画像が該閾値を超えたスコアに対応する前記対象物であると判別するものであることを特徴とする請求項9記載のプログラム。
  11. 前記複数の弱判別器が、多数の弱判別器の中からブースティングの学習手法により選定されたものであることを特徴とする請求項9または10記載のプログラム。
  12. 前記複数の弱判別器が、さらに、ブースティングの学習手法により決定された順番で接続されてなるものであることを特徴とする請求項11記載のプログラム。
JP2005230704A 2005-08-09 2005-08-09 デジタル画像の複数対象物検出方法および装置並びにプログラム Active JP4588575B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005230704A JP4588575B2 (ja) 2005-08-09 2005-08-09 デジタル画像の複数対象物検出方法および装置並びにプログラム
US11/500,982 US7760940B2 (en) 2005-08-09 2006-08-09 Method, apparatus, and program for detecting objects in digital image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005230704A JP4588575B2 (ja) 2005-08-09 2005-08-09 デジタル画像の複数対象物検出方法および装置並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007047975A JP2007047975A (ja) 2007-02-22
JP4588575B2 true JP4588575B2 (ja) 2010-12-01

Family

ID=37742593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005230704A Active JP4588575B2 (ja) 2005-08-09 2005-08-09 デジタル画像の複数対象物検出方法および装置並びにプログラム

Country Status (2)

Country Link
US (1) US7760940B2 (ja)
JP (1) JP4588575B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108024A (ja) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
KR100919167B1 (ko) * 2007-08-16 2009-09-28 한국과학기술원 히스토그램 평활화 시스템 및 방법
JP2009118009A (ja) * 2007-11-02 2009-05-28 Sony Corp 撮像装置、その制御方法およびプログラム
JP4970381B2 (ja) * 2008-08-08 2012-07-04 株式会社東芝 特徴抽出装置、特徴抽出方法、画像処理装置、及び、プログラム
JP4710979B2 (ja) 2009-01-09 2011-06-29 ソニー株式会社 対象物検出装置、学習装置、対象物検出方法およびプログラム
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム
US8897489B2 (en) * 2010-01-29 2014-11-25 Rochester Institute Of Technology Methods for object-based identification, sorting and ranking of target detections and apparatuses thereof
JP5748472B2 (ja) * 2010-12-15 2015-07-15 富士フイルム株式会社 オブジェクト判別装置、方法、及びプログラム
WO2012175785A1 (en) 2011-06-20 2012-12-27 Nokia Corporation Methods, apparatuses and computer program products for performing accurate pose estimation of objects
US9508018B2 (en) * 2014-11-24 2016-11-29 Texas Instruments Incorporated Systems and methods for object detection
US10127503B2 (en) * 2015-10-21 2018-11-13 International Business Machines Corporation Generating multidimensional combination data
EP3540634A1 (en) * 2018-03-13 2019-09-18 InterDigital CE Patent Holdings Method for audio-visual events classification and localization and corresponding apparatus computer readable program product and computer readable storage medium
EP4070236A4 (en) * 2019-12-02 2024-01-17 Univ Utah Res Found MEDICAL IMAGE SYNTHESIS FOR MOTION CORRECTION USING GENERATIVE CONTRADICTORY NETWORKS

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334836A (ja) * 2003-04-14 2004-11-25 Fuji Photo Film Co Ltd 画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置
JP2005108195A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 対象物識別装置および方法並びにプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4323880A (en) * 1974-07-22 1982-04-06 The United States Of America As Represented By The Secretary Of The Navy Automatic target screening
JPS6057475A (ja) * 1983-09-07 1985-04-03 Toshiba Corp パタ−ン認識方式
US4972193A (en) * 1988-08-09 1990-11-20 The General Electric Company, P.L.C. Target recognition
US5446543A (en) * 1992-07-24 1995-08-29 Kabushiki Kaisha Toshiba Method and apparatus for extracting a pattern of color from an object using a neural network
US6154559A (en) * 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
US6754367B1 (en) * 1999-09-30 2004-06-22 Hitachi Denshi Kabushiki Kaisha Method and apparatus for automatically detecting intrusion object into view of image pickup device
US6675174B1 (en) * 2000-02-02 2004-01-06 International Business Machines Corp. System and method for measuring similarity between a set of known temporal media segments and a one or more temporal media streams
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US6865295B2 (en) * 2001-05-11 2005-03-08 Koninklijke Philips Electronics N.V. Palette-based histogram matching with recursive histogram vector generation
DE60213032T2 (de) * 2001-05-22 2006-12-28 Matsushita Electric Industrial Co. Ltd. Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte
GB2409027A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US7720291B2 (en) * 2004-02-17 2010-05-18 Corel Corporation Iterative fisher linear discriminant analysis
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334836A (ja) * 2003-04-14 2004-11-25 Fuji Photo Film Co Ltd 画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置
JP2005108195A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 対象物識別装置および方法並びにプログラム

Also Published As

Publication number Publication date
JP2007047975A (ja) 2007-02-22
US7760940B2 (en) 2010-07-20
US20070036431A1 (en) 2007-02-15

Similar Documents

Publication Publication Date Title
JP4588575B2 (ja) デジタル画像の複数対象物検出方法および装置並びにプログラム
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
JP4708909B2 (ja) デジタル画像の対象物検出方法および装置並びにプログラム
JP4933186B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP4657934B2 (ja) 顔検出方法および装置並びにプログラム
US20070195996A1 (en) Characteristic point detection method, apparatus, and program
JP4624889B2 (ja) 顔検出方法および装置並びにプログラム
US20150016679A1 (en) Feature extraction device, feature extraction method, and feature extraction program
JP2008117391A (ja) デジタル画像における顔を検出する方法、およびデジタル画像における顔を検出する装置
KR20090131626A (ko) 영상 데이터내의 특정 클래스의 오브젝트를 세그멘테이션하기 위한 시스템 및 방법
JP2009211178A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
US8503768B2 (en) Shape description and modeling for image subscene recognition
JP2008217589A (ja) 学習装置及びパターン認識装置
JP2005202932A (ja) データを複数のクラスに分類する方法
JP7294695B2 (ja) 学習済モデルによるプログラム、情報記録媒体、分類装置、ならびに、分類方法
WO2011092865A1 (ja) 物体検出装置及び物体検出方法
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
Forczmański et al. An algorithm of face recognition under difficult lighting conditions
JP5335554B2 (ja) 画像処理装置及び画像処理方法
JP4795737B2 (ja) 顔検出方法および装置並びにプログラム
JP2004246618A (ja) パターン認識における照合に用いられる画像の生成ならびに同画像を用いたパターン認識のための方法、装置、およびプログラム
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
JP2006285959A (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP2006031114A (ja) 画像分割処理システム
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100908

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4588575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250